JP2005056170A - Interactive operation supporting system - Google Patents

Interactive operation supporting system Download PDF

Info

Publication number
JP2005056170A
JP2005056170A JP2003286651A JP2003286651A JP2005056170A JP 2005056170 A JP2005056170 A JP 2005056170A JP 2003286651 A JP2003286651 A JP 2003286651A JP 2003286651 A JP2003286651 A JP 2003286651A JP 2005056170 A JP2005056170 A JP 2005056170A
Authority
JP
Japan
Prior art keywords
character
user
name
function
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003286651A
Other languages
Japanese (ja)
Inventor
Hiroteru Kawasaki
剛照 川崎
Hitoshi Araki
均 荒木
Keiichi Senda
圭一 仙田
Masato Yuda
正人 湯田
Tadashi Yoshida
直史 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003286651A priority Critical patent/JP2005056170A/en
Publication of JP2005056170A publication Critical patent/JP2005056170A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an interactive operation supporting system to operate household electric appliances or information apparatuses according to an intuitive instruction without complicating a command uttered by a user. <P>SOLUTION: A plurality of characters are arranged on a picture, and certain functions owned by household electric appliances or information apparatuses are associated with respective characters, and presented to a user. Then, the user is able to view the displayed characters in order to start the operation of the household electric appliances or information apparatuses by calling the names of virtual agents present in the apparatuses. Also, it is possible for the user to select his or her desired function from a plurality of functions owned by the apparatuses according to an intuitive instruction such as the name of characters. Thus, it is possible to prevent the command uttered by the user from being complicated. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、複数の機能を有する各種家電機器や情報機器に対するユーザの操作を支援する、キャラクタエージェントを用いた対話型操作支援システムに関するものである。   The present invention relates to an interactive operation support system using a character agent that supports user operations on various home appliances and information devices having a plurality of functions.

従来、テレビ受像機などの各種家電機器や携帯電話などの各種情報機器に用いられるインタフェースとしては、リモコンやタッチパネルなどを介して画面に表示された操作メニューを選択する方法や、アイコンと呼ばれる絵文字を指定する方法が主流である。   Conventionally, as an interface used for various home appliances such as a television receiver and various information devices such as a mobile phone, a method of selecting an operation menu displayed on the screen via a remote control or a touch panel, or a pictogram called an icon is used. The method of specifying is the mainstream.

一方、近年の情報処理技術の向上に伴い、各種家電機器の機能は高機能化の一途をたどっている。たとえばテレビの例では、それまでのアナログ放送からデジタル放送に変化することによって、多チャンネル放送の受信が可能となったり、データ放送の受信や、双方向通信によるユーザ参加型放送の受信が可能となったりといったような例がある。   On the other hand, with the improvement of information processing technology in recent years, the functions of various home appliances are steadily improving. For example, in the case of a television, it is possible to receive multi-channel broadcasts by changing from analog broadcasts to digital broadcasts, receive data broadcasts, and receive user-participation broadcasts through two-way communication. There are examples such as becoming.

このような高機能を有する機器を操作するとき、前述のリモコンやタッチパネルなどのいわゆる手先操作によるインタフェースでは、画面に表示する操作メニューの数を増加させるか、あるいは一度に表示する操作メニューの数を少なく限定するかわりに機能階層を深くするなどの対応がとられてきた。しかしながら、操作メニューの数が増加した場合、ユーザは提示された数多くのメニュー項目の中から希望する機能を探し出す必要があり、操作が煩雑になるという問題が生じる。また、機能階層を深くすれば同時に提示される選択肢の数は減るものの、目的の機能に到達するまでに深い機能階層をたどらなければならず、やはり操作が煩雑になるという問題が生じる。   When operating a device with such high functions, the number of operation menus displayed on the screen is increased or the number of operation menus displayed at one time is increased in a so-called hand-operated interface such as the above-described remote control or touch panel. Instead of limiting it to a few, measures such as deepening the function hierarchy have been taken. However, when the number of operation menus increases, the user needs to find a desired function from among the many menu items presented, which causes a problem that the operation becomes complicated. Further, if the function hierarchy is deepened, the number of options presented at the same time is reduced, but the deep function hierarchy must be followed until the target function is reached, and there is a problem that the operation becomes complicated.

そこで、最近ではキャラクタをディスプレイに表示させ、ユーザがディスプレイ上のキャラクタと会話を行う形式で機器の操作を行う対話型操作支援システムが提案されている。このシステムによれば、ユーザの発した音声を機器側が認識し、その認識結果に基づいてユーザの要求を解析することで機器の操作が可能となることから、ユーザは多数の操作メニューの中から所望する選択肢を探す手間や深い機能階層をたどる手間が不要となり、機器操作時の負荷を軽減することが出来る。   Therefore, recently, an interactive operation support system has been proposed in which a character is displayed on a display and a user operates a device in a form in which the user talks with the character on the display. According to this system, since the device side recognizes the voice uttered by the user and analyzes the user's request based on the recognition result, the user can operate the device. The trouble of searching for a desired option and the trouble of following a deep function hierarchy are not required, and the load at the time of device operation can be reduced.

たとえば、特許文献1によれば、自然言語に近い命令体系を備え、また、応答時間を要する処理をユーザが命令した場合に、機器の進行状況をユーザにフィードバックすることでユーザの不安を生じさせないようにした対話型操作支援システムである。これによれば、ディスプレイ上に出現したアシスタントとの対話に基づいて、ユーザが不安を感じることなく機器を容易に操作することが可能となる。
特開2002−41276号公報
For example, according to Patent Document 1, when a user commands a process that requires a response time that is close to a natural language, the user's anxiety is not caused by feeding back the progress of the device to the user. This is an interactive operation support system. According to this, it is possible to easily operate the device without the user feeling uneasy based on the dialogue with the assistant appearing on the display.
JP 2002-41276 A

一方で、機器のネットワーク化が進み、各種機器はそれまでの単独の機能を有する専用機としてだけでなく、多様な機能を持った複合機としての側面をもち始めている。たとえば携帯電話は、常に携行しておりいつでも使えるという便利さから、単なる電話としての機能以外にも、メール送受信機能や写真撮影機能、さらには外出先から自宅にあるビデオ録画装置に録画予約の指示を出す機能など、多種多様な機能を有するにいたっている。また家庭内においては、家庭内の情報を集約するホームサーバの研究がなされており、これによれば、空調装置の操作から施錠状態の確認、冷蔵庫に保存されている食品の確認など家庭内のあらゆる機器の操作を、1台の端末から操作できるようになることが想定されている。   On the other hand, the networking of devices has progressed, and various devices have started to have aspects such as multifunction devices having various functions as well as dedicated machines having a single function so far. For example, mobile phones are always carried and can be used at any time. In addition to simple phone functions, e-mail transmission / reception functions and photo shooting functions are also available. It comes to have a wide variety of functions, such as the function to output. Also, in the home, research on home servers that collect information in the home has been conducted, and according to this, in the home such as confirmation of the locked state from the operation of the air conditioner, confirmation of food stored in the refrigerator, etc. It is assumed that all devices can be operated from a single terminal.

このように多数の機能を持った機器を操作するためには、音声コマンドであってもまず機能を特定するための命令を発声する必要がある。たとえば、スケジュール管理機能とテレビ番組案内機能といった機能を持った情報端末を操作する際、「明日の8時は?」といった命令だけではそれがスケジュール管理機能に対する命令なのかテレビ番組案内機能に対する命令なのかを識別することができず、機能名称を付加した命令(「明日の8時のスケジュールは?」や「明日の8時のテレビ番組は?」など)をユーザに発声させる必要がある。   In order to operate a device having such a large number of functions, it is necessary to utter a command for specifying the function even if it is a voice command. For example, when operating an information terminal having functions such as a schedule management function and a TV program guide function, it is only a command such as “Tomorrow at 8:00?” That is a command for the schedule management function or a command for the TV program guide function. It is necessary to make the user utter a command to which a function name is added (such as “What is the schedule for tomorrow at 8:00?” Or “What is the TV program at tomorrow at 8:00?”).

しかしながら、ユーザに発声させる命令長を長くすると、ユーザが発声すべき内容が煩雑となり、さらにはユーザが命令を忘れてしまう可能性が高く「まず何を話し始めたらよいか分からない」といった状況が発生することが予想される。   However, if the command length to be uttered by the user is lengthened, the content to be uttered by the user becomes complicated, and there is a high possibility that the user forgets the command. It is expected to occur.

本発明の目的は、多数の機能を持った情報機器に対するユーザ操作を対話的に操作することができ、複雑な操作の機器に対してもユーザの発声する命令を複雑なものにすることなく、直感的な命令により機器の操作を行うことができる対話型操作支援システムを提供することにある。   It is an object of the present invention to interactively operate a user operation on an information device having a large number of functions, without complicating a command issued by a user even on a device with a complicated operation. An object of the present invention is to provide an interactive operation support system capable of operating a device with an intuitive command.

かかる目的を達成するために、本発明の請求項1にかかる対話型操作支援システムは、表示手段と、キャラクタ画像を生成して、表示手段を介してユーザにキャラクタを提示するキャラクタ制御手段と、音声出力手段と、キャラクタが話す言葉を音声合成して、音声出力手段を介して外部出力する出力音声制御手段と、音声入力手段と、音声入力手段を介して入力されたユーザの声を音声認識する入力音声認識手段と、複合機器が有する機能グループ別に個々に対応付けされたキャラクタの名称を記憶する名称記憶手段と、入力音声認識手段により取得したユーザの言葉に、名称記憶手段で保持しているキャラクタの名称を含むかどうかを判定し、含む場合は機器の有する複数の機能の中からキャラクタの名称に対応する機能を選択する機能選択手段と、入力音声認識手段により取得したユーザの言葉により、機能選択手段を介して機器の機能を選択させ、選択された機能に基づいてキャラクタの言葉と動作を決定する中央制御手段とを具備することを特徴とする対話型操作支援システムである。   In order to achieve such an object, an interactive operation support system according to claim 1 of the present invention includes a display means, a character control means for generating a character image and presenting a character to the user via the display means, Speech recognition means, speech output means for synthesizing the words spoken by the character, and externally output via the speech output means, speech input means, and user's voice input via the speech input means Input speech recognition means, name storage means for storing character names individually associated with each function group of the composite device, and user words acquired by the input speech recognition means are stored in the name storage means. A function that determines whether or not the name of the character is included, and if so, selects the function corresponding to the character name from the multiple functions of the device Selection means and a central control means for selecting the function of the device via the function selection means according to the user's words acquired by the input voice recognition means, and determining the words and actions of the character based on the selected functions. It is an interactive operation support system characterized by doing.

また、請求項2にかかる対話型操作支援システムは、キャラクタ制御手段が、複数体のキャラクタ画像を生成し、表示手段に複数体のキャラクタ画像が同時に出現することを特徴とする対話型操作支援システムである。   The interactive operation support system according to claim 2 is characterized in that the character control means generates a plurality of character images, and the plurality of character images appear simultaneously on the display means. It is.

また、請求項3にかかる対話型操作支援システムは、入力音声認識手段により取得したユーザの言葉に、名称記憶手段が保持しているキャラクタの名称が含まれる場合、中央制御手段が、キャラクタの名称に対応するキャラクタの動作を変更するようにキャラクタ制御手段に指令を出すことを特徴とする対話型操作支援システムである。   In the interactive operation support system according to claim 3, when the name of the character held by the name storage means is included in the user's words acquired by the input voice recognition means, the central control means The interactive operation support system is characterized by issuing a command to the character control means so as to change the action of the character corresponding to.

また、請求項4にかかる対話型操作支援システムは、中央制御手段が、キャラクタの話す言葉として、キャラクタの名称に対応する機能に関する説明を設定することで、キャラクタによるヘルプ機能を実現することを特徴とする対話型操作支援システムである。   The interactive operation support system according to claim 4 is characterized in that the central control means realizes a help function by the character by setting an explanation regarding the function corresponding to the name of the character as a word spoken by the character. Is an interactive operation support system.

また、請求項5にかかる対話型操作支援システムは、さらに名称記憶手段が保持しているキャラクタの名称と機能グループとの対応を変更するための名称変更手段を備え、ユーザの好みに合わせてキャラクタの名称を変更できるようにしたことを特徴とする対話型操作支援システムである。   The interactive operation support system according to claim 5 further comprises name changing means for changing the correspondence between the name of the character held by the name storage means and the function group, and the character according to the user's preference. This is an interactive operation support system characterized in that the name of the user can be changed.

本発明の対話型操作支援システムは、以上の説明の構成により、多数の機能を持った情報機器に対するユーザ操作を対話的に操作することができ、複雑な操作の機器に対してもユーザの発声する命令を複雑なものにすることなく、直感的な命令により機器の操作を行うことが可能となる。   With the above-described configuration, the interactive operation support system of the present invention can interactively operate user operations on information devices having a large number of functions. It is possible to operate the device by an intuitive command without complicating the command to be performed.

以下、本発明の実施例を図面に基づいて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
図1は本発明の実施例にかかる対話型操作支援システムのハードウェア全体構成を示す図である。該システムは、たとえばスケジュール管理機能とテレビ番組案内機能、メール送受信機能を搭載した情報機器として構成され、対話型操作支援システムは、ディスプレイに表示されたキャラクタと対話を行うことにより、スケジュール管理機能・テレビ番組案内機能・メール送受信機能の各機能を提供することが出来るようにしたものである。以下、図1を参照しながら各部について説明する。
(Embodiment 1)
FIG. 1 is a diagram showing an overall hardware configuration of an interactive operation support system according to an embodiment of the present invention. The system is configured as an information device equipped with, for example, a schedule management function, a TV program guide function, and an e-mail transmission / reception function. The interactive operation support system interacts with a character displayed on the display to Each function of the TV program guide function and the mail transmission / reception function can be provided. Hereinafter, each part will be described with reference to FIG.

中央制御部10は、各種制御プログラムや制御データに従って対話型操作支援システム1の各部を制御する中央演算装置である。   The central control unit 10 is a central processing unit that controls each unit of the interactive operation support system 1 according to various control programs and control data.

記憶装置50は、磁気ディスクや光ディスクなど大量のデータが記憶可能なもので、この記憶装置50の中には、本発明にかかる対話型操作支援システムを実行するための制御プログラムや制御データが格納されている。制御プログラムの具体例としては、対話型操作支援システム1全体を包括的に制御するオペレーティングシステムOSのプログラムや、音声データを文字データに変換する音声認識プログラム、文字データを音声データに変換する音声合成プログラム、キャラクタの表情表現や動作を制御するキャラクタアニメーション制御プログラム、キャラクタの発声する内容や発声の抑揚を制御するキャラクタ音声制御プログラム、ディスプレイを介してキャラクタを画面出力する画面出力制御プログラム、スピーカを介してキャラクタ音声を出力する音声出力制御プログラム、対話型操作支援システムが提供する複数の機能の中からユーザが所望する機能に切り替える機能選択プログラム、などがある。また、制御データの具体例としては、キャラクタ画像を生成するためのキャラクタ画像データ、キャラクタの表情および動作のアニメーションを生成するためのキャラクタアニメーションデータ、キャラクタの話す内容を定義した発話内容データ、ユーザが音声により入力すべき操作コマンドを定義した操作コマンドデータ、などがある。   The storage device 50 is capable of storing a large amount of data such as a magnetic disk and an optical disk. The storage device 50 stores a control program and control data for executing the interactive operation support system according to the present invention. Has been. Specific examples of the control program include an operating system OS program that comprehensively controls the entire interactive operation support system 1, a speech recognition program that converts speech data into character data, and a speech synthesis that converts character data into speech data. Program, character animation control program for controlling character expression and motion, character voice control program for controlling character utterance and voicing suppression, screen output control program for outputting character screen via display, speaker A voice output control program for outputting character voice, and a function selection program for switching a function desired by the user from a plurality of functions provided by the interactive operation support system. Specific examples of the control data include character image data for generating a character image, character animation data for generating a character's facial expression and motion animation, utterance content data defining what the character speaks, There is operation command data that defines operation commands to be input by voice.

さらに、図1に示すような対話型操作支援システム1のように、スケジュール管理機能とテレビ番組案内機能とメール送受信機能を搭載した情報機器として構成される場合は、記憶装置50に格納される制御プログラムの例として、ユーザのスケジュールデータを保持してディスプレイを介してユーザにスケジュールデータを提示するためのスケジュール管理制御プログラム、インターネットなどの広域ネットワーク60を介して番組表配信サーバ70からテレビ番組表データを取得するための番組表データ取得プログラム、広域ネットワーク60により接続されたメールサーバ80を介してメールの送受信を行うメール送受信プログラムなどが含まれる。また、制御データの例として、カレンダーの日付データやユーザのスケジュールデータ、番組表配信サーバ70から取得した番組表データ、ユーザが過去に送受信したメール文章やメールのあて先を記録したアドレス帳などからなるメールデータ、などが含まれる。   Further, in the case of being configured as an information device equipped with a schedule management function, a TV program guide function, and a mail transmission / reception function as in the interactive operation support system 1 as shown in FIG. As an example of a program, a schedule management control program for holding schedule data of a user and presenting the schedule data to the user via a display, TV program guide data from the program guide distribution server 70 via a wide area network 60 such as the Internet For example, a program guide data acquisition program for acquiring data, a mail transmission / reception program for transmitting / receiving mail via the mail server 80 connected by the wide area network 60, and the like. Examples of control data include calendar date data, user schedule data, program guide data acquired from the program guide distribution server 70, mail texts sent and received by the user in the past, and an address book in which mail destinations are recorded. Mail data, etc. are included.

ディスプレイ40はプラズマディスプレイや液晶ディスプレイなど、キャラクタ画像をユーザに提示することのできるものである。図1に示す対話型操作支援システム1の例では、ディスプレイ40が表示する内容の例として、キャラクタ画像のほかに、テレビ番組表やユーザのスケジュール一覧、メールの文章などが表示される。   The display 40, such as a plasma display or a liquid crystal display, can present a character image to the user. In the example of the interactive operation support system 1 shown in FIG. 1, as an example of the contents displayed on the display 40, in addition to a character image, a television program guide, a user schedule list, a mail text, and the like are displayed.

さらに、本発明にかかる対話型操作支援システム1の記憶装置50には、図2に示すように、キャラクタの名称と操作支援システムが提供する機能とを1対1に対応付けたキャラクタ名称データを保持している。キャラクタ名称データの例としては図2に示すように、ID番号0番のテレビ番組案内機能に対応するキャラクタ名称として名称ID番号0番の「奈々子」がわりあてられており、ID番号1番のスケジュール管理機能に対応するキャラクタ名称として名称ID番号1番の「隆史」がわりあてられており、ID番号2番のメール送受信機能に対応するキャラクタ名称として名称ID番号2番の「拓也」がわりあてられている、といった具合である。   Furthermore, as shown in FIG. 2, the storage device 50 of the interactive operation support system 1 according to the present invention stores character name data in which character names and functions provided by the operation support system are associated one-to-one. keeping. As an example of the character name data, as shown in FIG. 2, “Nanako” with name ID number 0 is assigned as the character name corresponding to the TV program guide function with ID number 0, and the schedule with ID number 1 is assigned. A character name corresponding to the management function is assigned “Takafumi” with the name ID number 1 and a character name corresponding to the mail transmission / reception function with the ID number 2 is assigned “Takuya” with the name ID number 2. And so on.

図3は、本発明の実施例の対話型操作支援システム1のシステム構成を示す機能ブロック図である。   FIG. 3 is a functional block diagram showing the system configuration of the interactive operation support system 1 according to the embodiment of the present invention.

図3に示されるように対話型操作支援システム1は、表示手段101と、キャラクタ制御手段102と、音声出力手段103と、出力音声制御手段104と、音声入力手段105と、入力音声認識手段106と、名称記憶手段107と、機能選択手段108と、中央制御手段109と、名称変更手段110と、からなる。図3の例では、さらに、テレビ番組案内手段201と、スケジュール管理手段202と、メール送受信手段203とを具備することによって、スケジュール管理機能、テレビ番組案内機能、メール送受信機能の各機能を対話型操作支援システムが提供できるようにしたものであり、これら各機能は他の機能(例えばビデオ録画機能など)を実現するための手段であってもかまわない。   As shown in FIG. 3, the interactive operation support system 1 includes a display means 101, a character control means 102, a voice output means 103, an output voice control means 104, a voice input means 105, and an input voice recognition means 106. And name storage means 107, function selection means 108, central control means 109, and name change means 110. In the example of FIG. 3, the TV program guide unit 201, the schedule management unit 202, and the mail transmission / reception unit 203 are further provided so that each function of the schedule management function, the TV program guide function, and the mail transmission / reception function is interactive. The operation support system can be provided, and each of these functions may be a means for realizing another function (for example, a video recording function).

表示手段101は、ユーザが対話的な操作を行う際にユーザとの対話の相手になるキャラクタを表示する。また、テレビ番組案内手段201がテレビ番組表一覧を表示する場合や、スケジュール管理手段202がスケジュール一覧を表示する場合など、対話型操作支援システム1が提供する各機能がユーザに情報を提示する場合も表示手段101により表示する。具体的には、ディスプレイ装置40がこの表示手段101に該当する。   The display unit 101 displays a character that is a partner of a dialogue with the user when the user performs an interactive operation. Also, when each function provided by the interactive operation support system 1 presents information to the user, such as when the TV program guide unit 201 displays a TV program guide list or when the schedule management unit 202 displays a schedule list. Is also displayed by the display means 101. Specifically, the display device 40 corresponds to the display unit 101.

キャラクタ制御手段102は、あらかじめ保持しているキャラクタ画像データとキャラクタアニメーションデータとからキャラクタ画像を生成して、表示手段101を介してユーザにキャラクタを提示する。キャラクタ制御手段102は、中央制御手段109の指示により、単体のキャラクタ画像制御だけでなく、複数のキャラクタ画像を同時に生成したり、複数のキャラクタ画像を同時に表示しているときに特定のキャラクタだけの動作を変更したりといった複数キャラクタ画像制御も行う。具体的には、記憶装置50が記憶しているキャラクタ画像データ、キャラクタアニメーションデータと中央制御部10による演算処理により、キャラクタ制御手段102が構成される。さらに具体的には、キャラクタ画像データとはキャラクタの3次元形状を記述したものであり、キャラクタを構成する頂点座標や色などのデータなどが保持されている。   The character control unit 102 generates a character image from the character image data and character animation data stored in advance, and presents the character to the user via the display unit 101. The character control means 102 is not limited to a single character image control according to an instruction from the central control means 109, and generates a plurality of character images at the same time or displays a plurality of character images simultaneously. Multi-character image control such as changing the motion is also performed. Specifically, the character control means 102 is configured by character image data and character animation data stored in the storage device 50 and arithmetic processing by the central control unit 10. More specifically, the character image data is a description of the three-dimensional shape of the character, and data such as vertex coordinates and colors constituting the character are held.

またキャラクタアニメーションデータは、時間軸に対してキャラクタを構成する頂点座標がどのように変化するかを記述したものであり、キャラクタの顔表情変化(喜んでいる顔、悲しんでいる顔など)や口形状の変化(「あ」を発声しているときの口形状、「い」を発声しているときの口形状など)、さらにキャラクタの動作(手を上げる、歩くなど)を頂点座標の変化として保持している。これらキャラクタ画像データ、キャラクタアニメーションデータは、複数キャラクタ分だけ記憶されており、中央制御手段109が、描画したいキャラクタと、そのキャラクタに適用したいアニメーションを指定することで、キャラクタ制御手段102がアニメーション付のキャラクタ画像を生成する。   The character animation data describes how the vertex coordinates that make up the character change with respect to the time axis, such as changes in the facial expression of the character (such as a happy face or a sad face) and mouth. Changes in shape (mouth shape when uttering “A”, mouth shape when uttering “I”, etc.) and character movement (raising hands, walking, etc.) as changes in vertex coordinates keeping. These character image data and character animation data are stored for a plurality of characters, and the central control means 109 designates a character to be drawn and an animation to be applied to the character, so that the character control means 102 has animation. Generate a character image.

音声出力手段103は、キャラクタが発声する言葉を音声としてユーザに提示する。具体的には、スピーカ20が相当する。   The voice output means 103 presents the words uttered by the character to the user as voice. Specifically, the speaker 20 corresponds.

出力音声制御手段104は、キャラクタの話す内容を定義した発話内容データを、音声出力手段103を介して音声としてユーザに提示するための音声データを生成する。出力音声制御手段104は、中央制御手段109の指示により、話す速度を変更したり、話の抑揚を変更したりといったように、単調な音声データの生成だけでなく変化を付けた音声データを生成も行う。具体的には、記憶装置50が記憶しているキャラクタ発話内容データと中央制御部10による演算処理により出力音声制御手段104が構成される。さらに具体的には、キャラクタの話す内容はテキスト形式で複数記憶されており、中央制御手段109によって選択されたキャラクタの発話内容を、既存の音声合成手法を用いて音声データを生成する。   The output voice control unit 104 generates voice data for presenting utterance content data defining the content spoken by the character to the user as voice via the voice output unit 103. The output voice control means 104 generates not only monotonous voice data but also changed voice data, such as changing the speaking speed or changing the inflection of the voice according to the instruction of the central control means 109. Also do. Specifically, the output speech control means 104 is configured by character utterance content data stored in the storage device 50 and arithmetic processing by the central control unit 10. More specifically, a plurality of spoken contents of the character are stored in a text format, and voice data is generated from the utterance contents of the character selected by the central control means 109 using an existing speech synthesis method.

音声入力手段105は、ユーザの話す声を音声入力信号として対話型操作支援システムに取得するものである。具体的には、マイク30が相当する。   The voice input means 105 acquires the voice spoken by the user as a voice input signal to the interactive operation support system. Specifically, the microphone 30 corresponds.

入力音声認識手段106は、音声入力手段105を介して取得した音声入力信号をテキスト形式に変換して、ユーザが発話した内容の解析処理をおこなう。具体的には、記憶装置50が記憶している音声認識プログラムと中央制御部10による演算処理により、入力音声認識手段10が構成される。より具体的には、音声認識プログラムは、いわゆる音素解析(音と文字との関係を明らかにする)だけでなく、既存の自然言語解析手法としてよく知られるような、形態素解析(単語や品詞の語形変化や並び方を明らかにする)や構文解析(語や文節からなるまとまり同士の関係を明らかにする)を行う手法を用いてもよい。   The input voice recognition unit 106 converts the voice input signal acquired via the voice input unit 105 into a text format, and performs analysis processing of the content spoken by the user. Specifically, the input speech recognition unit 10 is configured by the speech recognition program stored in the storage device 50 and the arithmetic processing by the central control unit 10. More specifically, the speech recognition program not only performs so-called phoneme analysis (clarifies the relationship between sound and characters) but also morphological analysis (word and part of speech), which is well known as an existing natural language analysis method. It is also possible to use a technique for clarifying word form change and arrangement) and syntactic analysis (clarifying the relationship between groups of words and phrases).

名称記憶手段107は、対話型操作支援システム1によって提供される複数の機能に対し各々対応付けされたキャラクタの名称を記憶する。具体的には、記憶装置50が記憶するキャラクタ名称が相当し、その内容は図2に示すように、ID番号0番のテレビ番組案内機能に対応するキャラクタ名称として名称ID番号0番の「奈々子」がわりあてられており、ID番号1番のスケジュール管理機能に対応するキャラクタ名称として名称ID番号1番の「隆史」がわりあてられており、ID番号2番のメール送受信機能に対応するキャラクタ名称として名称ID番号2番の「拓也」がわりあてられている、といった具合である。   The name storage means 107 stores the names of characters associated with a plurality of functions provided by the interactive operation support system 1. Specifically, the character name stored in the storage device 50 corresponds, and the content is “Nanako with name ID number 0 as the character name corresponding to the TV program guide function with ID number 0, as shown in FIG. "Is assigned as a character name corresponding to the schedule management function with ID number 1 and" Takafumi "with ID number 1 is assigned as a character name corresponding to the mail transmission / reception function with ID number 2. For example, “Takuya” with name ID number 2 is assigned.

機能選択手段108は、ユーザが発話した内容の中に名称記憶手段107が記憶しているキャラクタの名称が含まれるかどうかを判定し、もし含まれている場合は、対話型操作支援システム1によって提供される複数の機能の中から、キャラクタ名称に対応する機能を選択する。具体的には、記憶装置50が記憶している機能選択プログラムと中央制御部10による演算処理により、機能選択手段108が構成される。   The function selection means 108 determines whether or not the name of the character stored in the name storage means 107 is included in the content uttered by the user, and if it is included, the interactive operation support system 1 A function corresponding to the character name is selected from a plurality of provided functions. Specifically, the function selection means 108 is configured by the function selection program stored in the storage device 50 and the arithmetic processing by the central control unit 10.

中央制御手段109は、入力音声認識手段106により取得したユーザの発話内容から機能選択手段108に対し機能選択を指示し、対話型操作支援システム1が提供する機能のうち選択された機能を起動する。また、あらかじめ保持している機器の操作コマンドをもとに、ユーザの発話内容に対応する機器の操作コマンドを抽出する。また、操作コマンドの内容に従ってキャラクタの動作を決定し、キャラクタ制御手段102に対しキャラクタ動作を変更させるような指示を出す。また、操作コマンドの内容に従ってキャラクタの発話内容を決定し、出力音声制御手段104に対し、出力する音声データを作成するような指示を出す。   The central control unit 109 instructs the function selection unit 108 to select a function from the content of the user's utterance acquired by the input voice recognition unit 106, and activates the selected function among the functions provided by the interactive operation support system 1. . Also, based on the device operation commands held in advance, the device operation commands corresponding to the user's utterance content are extracted. Further, the action of the character is determined according to the contents of the operation command, and an instruction is given to the character control means 102 to change the character action. In addition, the content of the utterance of the character is determined according to the content of the operation command, and an instruction to create output audio data is issued to the output audio control means 104.

図12は、この実施例の動作の全体の流れを示したフローチャートである。   FIG. 12 is a flowchart showing the overall flow of the operation of this embodiment.

まず、ユーザが発話した内容は、音声入力手段105を介して音声入力信号としてシステムに入力された後、入力音声認識手段106がテキスト形式の発話内容に変換する(S10)。次に、中央制御手段109は機能選択手段108に対し、対話型操作支援システム1が提供する複数の機能の中からユーザの発話内容に相当する機能を選択するよう指示を出すが、このとき機能選択手段108はまず、ユーザの発話内容の中に名称記憶手段107が記憶しているキャラクタ名称と一致する名称が含まれるかどうかを判定し(S20)、もし含まれている場合は(S20でYES)、そのときの名称に対応する機能を選択するために、その機能IDを記憶する(S30)。次に、中央制御手段109は、あらかじめ中央制御手段109が保持している操作コマンド一覧を参照して、ユーザが発話した内容の中に、現在選択中の機能に対する操作コマンドが含まれているかどうかを判定する(S40)。   First, the content uttered by the user is input to the system as a voice input signal via the voice input means 105, and then the input voice recognition means 106 converts it into text-like utterance contents (S10). Next, the central control unit 109 instructs the function selection unit 108 to select a function corresponding to the user's utterance content from among a plurality of functions provided by the interactive operation support system 1. First, the selection means 108 determines whether or not the user's utterance content includes a name that matches the character name stored in the name storage means 107 (S20). YES), the function ID is stored in order to select the function corresponding to the name at that time (S30). Next, the central control unit 109 refers to a list of operation commands held in advance by the central control unit 109, and whether or not an operation command for the currently selected function is included in the content uttered by the user. Is determined (S40).

図13に、中央制御手段109が保持している操作コマンド一覧の例を示す。   FIG. 13 shows an example of a list of operation commands held by the central control means 109.

この例では、機能ID番号0番〜2番の機能(テレビ番組案内機能、スケジュール管理機能、メール送受信機能)それぞれについて有効な操作コマンドの一覧を示している。具体的にはテレビ番組案内機能は操作コマンドとして「明日の9時は?」「一覧見せて」「おすすめは?」などの音声コマンドを受け付けることを示しており、メール送受信機能は操作コマンドとして「メールみせて」「メール出したい」などの音声コマンドを受け付けることを示している。なお、ここでは説明を容易にするために複数の文節からなるような比較的長い操作コマンドを例として列挙したが、実際には自然言語解析するために必要となる形態素毎の情報などを保持しておき、それらの組合せにより有効な操作コマンドが構成されるようにしておく。中央制御手段109は、この操作コマンド一覧を参照して、発話内容の中に現在選択されている機能IDが受け付ける操作コマンドが含まれるかどうかを判定する。もし操作コマンドが含まれているなら(S40でYES)、現在選択中の機能に対しその操作コマンドを実行するよう指示を出す(S50)。具体的には、現在テレビ番組案内機能が選択されている場合は、テレビ番組案内手段201に対して、ユーザが発話した操作コマンド(一覧みせて、など)を実行するよう指示を出す。   This example shows a list of operation commands effective for each of the function ID numbers 0 to 2 (television program guide function, schedule management function, mail transmission / reception function). Specifically, the TV program guide function indicates that voice commands such as “when tomorrow at 9:00?”, “Show the list” and “recommended?” Are accepted as operation commands, and the mail transmission / reception function has “ This indicates that voice commands such as “Show mail” and “I want to send mail” are accepted. For ease of explanation, relatively long operation commands consisting of a plurality of clauses are listed here as examples. However, in practice, information on each morpheme necessary for natural language analysis is stored. In addition, an effective operation command is configured by a combination thereof. The central control unit 109 refers to the operation command list and determines whether or not the operation command accepted by the currently selected function ID is included in the utterance content. If an operation command is included (YES in S40), an instruction to execute the operation command is issued to the currently selected function (S50). Specifically, when the TV program guide function is currently selected, the TV program guide unit 201 is instructed to execute an operation command (listed, etc.) spoken by the user.

次に中央制御手段109は、あらかじめ保持しているキャラクタのアニメーションデータと発話内容データから、ユーザが発話した操作コマンドに対応したアニメーションと発話内容を選択し、キャラクタ制御手段102および出力音声制御手段104に対して、キャラクタ画像の生成および音声データの生成を指示することで、キャラクタ画像および音声がユーザに提示される(S60)。   Next, the central control means 109 selects an animation and utterance content corresponding to the operation command uttered by the user from the character animation data and utterance content data held in advance, and the character control means 102 and the output voice control means 104. On the other hand, by instructing the generation of the character image and the generation of the voice data, the character image and the voice are presented to the user (S60).

本発明の実施例にかかる対話型操作支援システム1の実際の動作例を説明するために、図を用いて具体例を挙げながら説明する。   In order to describe an actual operation example of the interactive operation support system 1 according to the embodiment of the present invention, a description will be given using a specific example with reference to the drawings.

図4は、対話型操作支援システム1を起動した直後や、機器が動作を行っていないアイドル状態にあるときに、表示手段101によってユーザに提示される画面例を示した図である。   FIG. 4 is a diagram showing an example of a screen presented to the user by the display unit 101 immediately after starting the interactive operation support system 1 or when the device is in an idle state where no operation is performed.

この図ではキャラクタが3体表示されているが、これは本発明の実施例にかかる対話型操作支援システム1がテレビ番組案内機能、スケジュール管理機能、メール送受信機能の3つの機能を提供するものであることに起因しており、対話型操作支援システムの提供する機能の数の増減によって、ユーザに提示されるキャラクタが増減してもよい。また、この図においては3体のキャラクタが表示されている大きさはほぼ同じであるが、特定の1キャラクタのみを大きく表示することで、ユーザが最初に話しかけるキャラクタを誘導してもよい。また、キャラクタ制御手段102が、あらかじめキャラクタのアニメーション動作を保持しておき、そのアニメーション動作に基づいてキャラクタ画像を変更することで、表示される各キャラクタが静止しているのではなく適度な動作を行っているようにしてもよい。   In this figure, three characters are displayed. This is because the interactive operation support system 1 according to the embodiment of the present invention provides three functions of a TV program guide function, a schedule management function, and a mail transmission / reception function. For this reason, the number of characters presented to the user may be increased or decreased by increasing or decreasing the number of functions provided by the interactive operation support system. In this figure, the size of the three characters displayed is substantially the same, but the character that the user speaks first may be induced by displaying only one specific character in a large size. Further, the character control means 102 holds the animation motion of the character in advance, and changes the character image based on the animation motion, so that each displayed character does not stand still but performs a proper motion. You may make it go.

図5は、ユーザがキャラクタの名称を知りたいという意思で「名前は?」と発話したときに、表示手段101によってユーザに提示される画面例、および、音声出力手段103によってユーザに提示される音声例を示した図である。   FIG. 5 shows an example of a screen presented to the user by the display means 101 when the user speaks “What is the name?” With the intention of knowing the name of the character, and is presented to the user by the voice output means 103. It is the figure which showed the audio | voice example.

この図では、ユーザが「名前は?」と発言すると、表示手段101に提示されている複数のキャラクタがそれぞれ自己紹介を行うように、キャラクタの名前とそれに対応する機能の名称を話している図を示している。   In this figure, when the user says “What is the name?”, The name of the character and the name of the function corresponding to the character name are spoken so that the plurality of characters presented on the display means 101 each introduce themselves. Is shown.

このような応答は次のような処理によって実現されている。まず、ユーザが発話した内容は、音声入力手段105を介して音声入力信号としてシステムに入力される。入力音声認識手段106は、音声入力信号を解析することで、ユーザの発話内容が「名前は」であることを取得する(S10)。次に、中央制御手段109は機能選択手段108に対し、対話型操作支援システム1が提供する複数の機能の中からユーザの発話内容に相当する機能を選択するよう指示を出すが、このとき機能選択手段108は「名前は」に一致するキャラクタ名称が存在しないことから何も処理を行わない(S20でNO)。次に、中央制御手段109はあらかじめ中央制御手段が保持している音声コマンド一覧により、「名前は」という発話が「キャラクタの自己紹介」に相当するコマンドであることを判断する(S40でYES)。次に、中央制御手段109は名称記憶手段107に保持されているキャラクタ名称を参照し、各キャラクタの名称とその機能名称を取得して(S50)、出力音声制御手段104に対して、キャラクタ名称とその機能名称を音声出力させると同時に、キャラクタ制御手段102に対して、各キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。   Such a response is realized by the following processing. First, the content spoken by the user is input to the system as a voice input signal via the voice input means 105. The input voice recognition means 106 analyzes the voice input signal to acquire that the user's utterance content is “name is” (S10). Next, the central control unit 109 instructs the function selection unit 108 to select a function corresponding to the user's utterance content from among a plurality of functions provided by the interactive operation support system 1. The selection means 108 does not perform any processing because there is no character name matching “name is” (NO in S20). Next, the central control means 109 determines from the voice command list previously held by the central control means that the utterance “name is” is a command corresponding to “character self-introduction” (YES in S40). . Next, the central control means 109 refers to the character name held in the name storage means 107, acquires the name of each character and its function name (S50), and sends the character name to the output voice control means 104. And the function name are output by voice, and at the same time, the character control unit 102 is instructed to set an animation for making each character appear to speak. The output sound control means 104 and the character control means 102 generate character sound and image data, respectively, and present them to the user via the sound output means 103 and the display means 101 (S60).

図6は、ユーザがあるキャラクタの名称を発話したときに、表示手段101によってユーザに提示される画面例、および、音声出力手段103によってユーザに提示される音声例を示した図である。   FIG. 6 is a diagram showing an example of a screen presented to the user by the display unit 101 and an example of a voice presented to the user by the audio output unit 103 when the user speaks the name of a certain character.

この図では、ユーザがキャラクタの名称である「奈々子」と発言したときに、「奈々子」と名づけられているキャラクタがユーザの呼びかけに反応し、該キャラクタに該当する機能が「テレビ番組案内機能」であることをユーザに提示している図を示している。このような応答は次のような処理によって実現されている。   In this figure, when the user says “Nanako”, which is the name of the character, the character named “Nanako” reacts to the user's call, and the function corresponding to the character is the “TV program guide function”. The figure which is showing to the user that it is is shown. Such a response is realized by the following processing.

まず、ユーザが発話した内容は、音声入力手段105を介して音声入力信号としてシステムに入力される。入力音声認識手段106は、音声入力信号を解析することで、ユーザの発話内容が「奈々子」であることを取得する(S10)。次に、中央制御手段109は機能選択手段108に対し、対話型操作支援システム1が提供する複数の機能の中からユーザの発話内容に相当する機能を選択するよう指示を出すが、このとき機能選択手段108は名称記憶手段107が記憶しているキャラクタ名称の中に「奈々子」と一致する名称があるかどうか探索し、「奈々子」と一致する機能が「テレビ番組案内機能」であることを取得する(S20でYES)。次に機能選択手段108は、テレビ番組案内機能に切り替えるため、機能ID「0」を記憶しておく(S30)。次に、中央制御手段109は、あらかじめ中央制御手段109が保持している操作コマンド一覧を参照して、ユーザが発話した内容の中に機能ID0番の機能に対する操作コマンドが含まれているかどうかを判定するが、ユーザの発話内容が名称のみであるという操作コマンドであると判断する(S40でYES)。次に中央制御手段109は、名称のみという操作コマンドからキャラクタの自己紹介として機能案内を行う必要があると判断し(S50)、出力音声制御手段104に対して、「テレビ番組案内機能」担当であることを音声出力させると同時に、キャラクタ制御手段102に対して、キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。   First, the content spoken by the user is input to the system as a voice input signal via the voice input means 105. The input voice recognition means 106 analyzes the voice input signal to acquire that the user's utterance content is “Nanako” (S10). Next, the central control unit 109 instructs the function selection unit 108 to select a function corresponding to the user's utterance content from among a plurality of functions provided by the interactive operation support system 1. The selection means 108 searches for a name that matches “Nanako” in the character names stored in the name storage means 107, and determines that the function that matches “Nanako” is the “TV program guide function”. Obtain (YES in S20). Next, the function selection means 108 stores the function ID “0” in order to switch to the TV program guide function (S30). Next, the central control unit 109 refers to a list of operation commands held in advance by the central control unit 109, and determines whether or not an operation command for the function with the function ID 0 is included in the contents spoken by the user. However, it is determined that the operation command is that the user's utterance content is only the name (YES in S40). Next, the central control means 109 determines that it is necessary to provide function guidance as a self-introduction of the character from the operation command of only the name (S50), and is in charge of the “TV program guide function” for the output audio control means 104 At the same time as outputting a certain sound, the character control means 102 is instructed to set an animation for making the character appear to be speaking. The output sound control means 104 and the character control means 102 generate character sound and image data, respectively, and present them to the user via the sound output means 103 and the display means 101 (S60).

図7は、ユーザがキャラクタ名称と機器の操作コマンドを続けて発話したときに、表示手段101によってユーザに提示される画面例、および、音声出力手段103によってユーザに提示される音声例を示した図である。   FIG. 7 shows a screen example presented to the user by the display unit 101 and a voice example presented to the user by the voice output unit 103 when the user continuously speaks the character name and the device operation command. FIG.

この図では、「奈々子」、「隆史」という異なるキャラクタ名称それぞれに続けて、同じ操作コマンド「明日の9時は?」をユーザが発話した場合に、テレビ番組案内機能を担当する「奈々子」は、明日の9時からのテレビ番組をユーザに提示し、スケジュール管理機能を担当する「隆史」は、明日9時のユーザのスケジュールをユーザに提示する、といったように、同じ操作コマンドを与えたときでも、キャラクタ毎に異なる反応をユーザに提示する様子を示した図である。   In this figure, when the user utters the same operation command “when is 9:00 tomorrow?” Following each of the different character names “Nanako” and “Takashi”, “Nanako” who is in charge of the TV program guide function is When the same operation command is given, such as “Takashi” who presents the TV program from 9:00 tomorrow to the user and presents the schedule of the user at 9:00 tomorrow to the user. However, it is the figure which showed a mode that a different reaction for every character is shown to a user.

このような応答は次のような処理によって実現されている。まず、ユーザが発話した「奈々子、明日の9時は?」という音声は、音声入力手段105を介して音声入力信号としてシステムに入力される。入力音声認識手段106は、音声入力信号を解析してユーザの発話内容が「奈々子、明日の9時は?」であることを取得する(S10)。次に、中央制御手段109は機能選択手段108に対しユーザの発話内容に従って機能を選択するよう指示を出す。次に機能選択手段108は、ユーザの発話内容に名称記憶手段107が記憶している名称と一致する「奈々子」が含まれることを検知し(S20でYES)、「奈々子」に一致する機能である「テレビ番組案内機能」を選択するために、機能ID0番を記憶する(S30)。次に、中央制御手段109は、あらかじめ中央制御手段109が保持している操作コマンド一覧を参照して、ユーザが発話した内容の中に機能ID0番の機能に対する操作コマンドが含まれているかどうかを判断し、「明日の9時は?」という一致するコマンドであることを判断する(S40でYES)。次に中央制御手段109は、機能ID0番に対応するテレビ番組案内手段201に対して「明日の9時は?」という操作コマンドを発行する。テレビ番組案内手段201は、「明日の9時は?」に対応した操作コマンドとして、明日の9時の番組表データを取得する(S50)。次に中央制御手段109は、出力音声制御手段104に対して、明日9時からの番組表データを音声出力させると同時に、キャラクタ制御手段102に対して、キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。   Such a response is realized by the following processing. First, the voice “Nanako, 9 o'clock tomorrow?” Spoken by the user is input to the system as a voice input signal via the voice input means 105. The input speech recognition means 106 analyzes the speech input signal and acquires that the user's utterance content is “Nanako, 9am tomorrow?” (S10). Next, the central control unit 109 instructs the function selection unit 108 to select a function according to the user's utterance content. Next, the function selection unit 108 detects that “Nanako” that matches the name stored in the name storage unit 107 is included in the user's utterance content (YES in S20), and the function matches “Nanako”. In order to select a certain “television program guide function”, the function ID No. 0 is stored (S30). Next, the central control unit 109 refers to a list of operation commands held in advance by the central control unit 109, and determines whether or not an operation command for the function with the function ID 0 is included in the contents spoken by the user. Judgment is made and it is judged that the command is a coincidence command “Tomorrow at 9:00?” (YES in S40). Next, the central control unit 109 issues an operation command “Tomorrow at 9:00?” To the television program guide unit 201 corresponding to the function ID 0. The TV program guide 201 acquires program guide data for 9:00 tomorrow as an operation command corresponding to “when is 9:00 tomorrow?” (S50). Next, the central control unit 109 causes the output voice control unit 104 to output the program guide data from 9:00 tomorrow as a voice, and at the same time, causes the character control unit 102 to appear as if the character is speaking. Instruct to set animation. The output sound control means 104 and the character control means 102 generate character sound and image data, respectively, and present them to the user via the sound output means 103 and the display means 101 (S60).

一方、ユーザが「隆史、明日の9時は?」と発生した場合は、機能選択手段108が「隆史」に相当する「スケジュール管理機能」を選択する(S30)ため、次に中央制御手段109はスケジュール管理手段202に対し「明日の9時は?」という操作コマンドを発行する。スケジュール管理手段202は、「明日の9時は?」に対応した操作コマンドとして、明日9時のユーザスケジュールを取得する(S50)。次に中央制御手段109は、出力音声制御手段104に対して、明日9時からのユーザスケジュールを音声出力させると同時に、キャラクタ制御手段102に対して、キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。このようにして、同じ操作コマンド「明日の9時は」に対して、キャラクタ毎に異なる反応をユーザに提示することができる。   On the other hand, when the user generates “Takashi, 9 o'clock tomorrow?”, The function selection unit 108 selects the “schedule management function” corresponding to “Takashi” (S30). Issues an operation command “Tomorrow at 9:00?” To the schedule management means 202. The schedule management unit 202 acquires the user schedule for tomorrow at 9:00 as an operation command corresponding to “Tomorrow at 9:00?” (S50). Next, the central control unit 109 causes the output voice control unit 104 to output the user schedule from 9 o'clock tomorrow at the same time, and at the same time, an animation for making the character control unit 102 appear as if the character is speaking. Instruct to set. The output sound control means 104 and the character control means 102 generate character sound and image data, respectively, and present them to the user via the sound output means 103 and the display means 101 (S60). In this way, a different response for each character can be presented to the user in response to the same operation command “9:00 tomorrow”.

図8は、ユーザがキャラクタ名称に続けて、そのキャラクタが担当していない機能名称を追加する操作コマンドを発話したときに、表示手段101によってユーザに提示される画面例、および、音声出力手段103によってユーザに提示される音声例を示した図である。   FIG. 8 shows an example of a screen presented to the user by the display unit 101 when the user utters an operation command for adding a function name that the character is not in charge of following the character name, and the voice output unit 103. It is the figure which showed the audio | voice example shown to a user by.

この図では、テレビ番組案内機能を担当している「奈々子」というキャラクタ名称に続けて、「メールもお願い」と操作コマンドを発話することで、今後「奈々子」と発話すると、テレビ番組案内とメール送受信機能の2機能が選択される様子を示した図である。   In this figure, the character name “Nanako”, who is in charge of the TV program guide function, is followed by an operation command such as “Please email”. It is the figure which showed a mode that two functions of a transmission / reception function were selected.

このような応答は次のような処理によって実現されている。まず、ユーザが発話した内容は、音声入力手段105を介して音声入力信号としてシステムに入力される。入力音声認識手段106は、音声入力信号を解析することで、ユーザの発話内容が「奈々子、メールもお願い」であることを取得する(S10)。次に、中央制御手段109は機能選択手段108に対しユーザの発話内容に従って機能を選択するよう指示を出す。次に機能選択手段108は、ユーザの発話内容に名称記憶手段107が記憶している名称と一致する「奈々子」が含まれることを検知し(S20でYES)、「奈々子」に一致する機能である「テレビ番組案内機能」を選択するために機能ID0番を記憶する(S30)。次に中央制御手段109は「メールもお願い」がテレビ番組案内機能の操作コマンドではなく、メール送受信機能を現在選択されているキャラクタに追加する操作コマンドであることを検知して(S40でYES)、名称記憶手段107が記憶している名称一覧に対して、メール送受信機能に対応するキャラクタ名称を「奈々子」に変更する(S50)。次に、中央制御手段109は出力音声制御手段104に対して、「奈々子」が担当している機能が「テレビ番組案内機能」と「メール送受信機能」であることを音声出力させると同時に、キャラクタ制御手段102に対して、キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。   Such a response is realized by the following processing. First, the content spoken by the user is input to the system as a voice input signal via the voice input means 105. The input voice recognition means 106 analyzes the voice input signal to acquire that the user's utterance content is “Nanako, please email” (S10). Next, the central control unit 109 instructs the function selection unit 108 to select a function according to the user's utterance content. Next, the function selection unit 108 detects that “Nanako” that matches the name stored in the name storage unit 107 is included in the user's utterance content (YES in S20), and the function matches “Nanako”. In order to select a certain “television program guide function”, the function ID No. 0 is stored (S30). Next, the central control means 109 detects that “Please mail” is not an operation command for the TV program guide function but an operation command for adding the mail transmission / reception function to the currently selected character (YES in S40). For the name list stored in the name storage means 107, the character name corresponding to the mail transmission / reception function is changed to “Nanako” (S50). Next, the central control unit 109 causes the output voice control unit 104 to output a voice indicating that the functions in charge of “Nanako” are the “TV program guide function” and the “mail transmission / reception function”, and at the same time, the character The control unit 102 is instructed to set an animation for making the character appear to speak. The output sound control means 104 and the character control means 102 generate character sound and image data, respectively, and present them to the user via the sound output means 103 and the display means 101 (S60).

図9は、ユーザがキャラクタ名称に続けて、そのキャラクタ名称を変更する操作コマンドを発話したときに、表示手段101によってユーザに提示される画面例、および、音声出力手段103によってユーザに提示される音声例を示した図である。この図では、「奈々子」というキャラクタ名称に続けて、「を紀香に変更」と操作コマンドを発話することで、今後「紀香」と発話することで、テレビ番組案内機能が選択される様子を示した図である。このような応答は次のような処理によって実現されている。入力音声認識手段106は、音声入力信号を解析することで、ユーザの発話内容が「奈々子を紀香に変更」であることを取得する(S10)。次に、中央制御手段109は機能選択手段108に対しユーザの発話内容に従って機能を選択するよう指示を出す。次に機能選択手段108は、ユーザの発話内容に名称記憶手段107が記憶している名称と一致する「奈々子」が含まれることを検知し(S20でYES)、「奈々子」に一致する機能である「テレビ番組案内機能」を選択するために機能ID0番を記憶する(S30)。次に中央制御手段109は「を紀香に変更」がテレビ番組案内機能の操作コマンドではなく、キャラクタの名称を変更する操作コマンドであることを検知して(S40でYES)、名称記憶手段107が記憶している名称一覧に対して、「奈々子」の名称を「紀香」に変更する(S50)。次に、中央制御手段109は出力音声制御手段104に対して、それまで「奈々子」と呼ばれていたキャラクタの名称が「紀香」に変更され、「紀香」の担当する機能は「テレビ番組案内機能」であることを音声出力させると同時に、キャラクタ制御手段102に対して、キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。   FIG. 9 shows an example of a screen presented to the user by the display means 101 when the user utters an operation command for changing the character name following the character name, and is presented to the user by the voice output means 103. It is the figure which showed the audio | voice example. This figure shows how the TV program guide function is selected by speaking “Nika” in the future by speaking the operation command “Change to Noka” after the character name “Nanako”. It is a figure. Such a response is realized by the following processing. The input voice recognition means 106 analyzes the voice input signal to acquire that the user's utterance content is “change Nanako to Norika” (S10). Next, the central control unit 109 instructs the function selection unit 108 to select a function according to the user's utterance content. Next, the function selection unit 108 detects that “Nanako” that matches the name stored in the name storage unit 107 is included in the user's utterance content (YES in S20), and the function matches “Nanako”. In order to select a certain “television program guide function”, the function ID No. 0 is stored (S30). Next, the central control means 109 detects that “change to Norika” is not an operation command for the TV program guide function but an operation command for changing the name of the character (YES in S40), and the name storage means 107 The name of “Nanako” is changed to “Nika” for the stored name list (S50). Next, the central control unit 109 changes the name of the character previously called “Nanako” to “Nika” to the output voice control unit 104, and the function of “Nika” is “TV program guide”. At the same time that the function is “voiced”, an instruction is given to the character control means 102 to set an animation for making the character appear as if it is speaking. The output sound control means 104 and the character control means 102 generate character sound and image data, respectively, and present them to the user via the sound output means 103 and the display means 101 (S60).

本発明に係わる対話型操作支援システムは、多数の機能を持った情報機器に対するユーザ操作を対話的に操作することができ、複雑な操作の機器に対してもユーザの発声する命令を複雑なものにすることなく、直感的な命令により機器の操作を行うことが可能となる効果を有し、複数の機能を有する各種家電機器や情報機器に対するユーザの操作を支援する、キャラクタエージェントを用いた対話型操作支援システムとして有用である。   The interactive operation support system according to the present invention can interactively operate a user operation on an information device having a large number of functions, and has a complicated command issued by a user even on a complicated operation device. The dialogue using the character agent that supports the user's operation on various home appliances and information devices with multiple functions, which has the effect of allowing the device to be operated with intuitive commands without having to It is useful as a mold operation support system.

本発明の実施例にかかる対話型操作支援システムのハードウェア全体構成を示す図The figure which shows the whole hardware structure of the interactive operation assistance system concerning the Example of this invention. キャラクタ名称データの一例を示す図The figure which shows an example of character name data 本発明の実施例にかかる対話型操作支援システムのシステム構成を示すブロック図The block diagram which shows the system configuration | structure of the interactive operation assistance system concerning the Example of this invention. 対話型操作支援システムがアイドル状態にあるときの画面表示例を示した図The figure which showed the example of a screen display when an interactive operation support system is in an idle state キャラクタに対して名称を提示するよう指示を出したときの画面表示例を示した図The figure which showed the example of a screen display when giving an instruction to present a name to a character ユーザがキャラクタの名称を発声したときの画面表示例を示した図The figure which showed the example of a screen display when a user utters the name of a character 複数のキャラクタを介してテレビ番組案内機能とスケジュール管理機能とを操作したときの画面表示例を示した図The figure which showed the example of a screen display when operating a television program guidance function and a schedule management function via a plurality of characters キャラクタ名称と機能との対応付けを変更するような操作をしたときの画面表示例を示した図The figure which showed the example of a screen display when operation which changed correspondence with a character name and a function was performed 図8に示す操作により図2に示すキャラクタ名称データが変更された例を示す図The figure which shows the example in which the character name data shown in FIG. 2 were changed by operation shown in FIG. キャラクタ名称を変更するような操作をしたときの画面表示例を示した図A figure showing an example of the screen display when an operation to change the character name is performed 図10に示す操作により図2に示すキャラクタ名称データが変更された例を示す図The figure which shows the example in which the character name data shown in FIG. 2 were changed by operation shown in FIG. 操作支援システムの動作の全体の流れを示したフローチャートFlow chart showing the overall flow of operation support system 機能別操作コマンド一覧の例を示した図Figure showing an example of the list of operation commands by function

符号の説明Explanation of symbols

1 対話型操作支援システム
10 中央制御部
20 スピーカ
30 マイク
40 ディスプレイ
50 記憶装置
60 ネットワーク
70 番組表配信サーバ
80 メールサーバ
101 表示手段
102 キャラクタ制御手段
103 音声出力手段
104 出力音声制御手段
105 音声入力手段
106 入力音声認識手段
107 名称記憶手段
108 機能選択手段
109 中央制御手段
110 名称変更手段
201 テレビ番組案内手段
202 スケジュール管理手段
203 メール送受信手段
DESCRIPTION OF SYMBOLS 1 Interactive operation support system 10 Central control part 20 Speaker 30 Microphone 40 Display 50 Storage device 60 Network 70 Program schedule distribution server 80 Mail server 101 Display means 102 Character control means 103 Voice output means 104 Output voice control means 105 Voice input means 106 Input speech recognition means 107 Name storage means 108 Function selection means 109 Central control means 110 Name change means 201 Television program guide means 202 Schedule management means 203 Mail transmission / reception means

Claims (5)

複数の機能を有する複合機器に対するユーザ操作を支援する対話型操作支援システムであって、
表示手段と、
キャラクタ画像を生成して、前記表示手段を介してユーザにキャラクタを提示するキャラクタ制御手段と
音声出力手段と、
前記キャラクタが話す言葉を音声合成して、前記音声出力手段を介して外部出力する出力音声制御手段と、
音声入力手段と、
前記音声入力手段を介して入力されたユーザの声を音声認識する入力音声認識手段と、
前記複合機器が有する複数の機能毎に個々に対応付けされたキャラクタの名称を記憶する名称記憶手段と、
前記入力音声認識手段により取得したユーザの言葉に、前記名称記憶手段で保持しているキャラクタの名称が含まれるかどうかを判定し、含まれる場合は機器の有する複数の機能の中からキャラクタの名称に対応する機能を選択する機能選択手段と、
前記入力音声認識手段により取得したユーザの言葉により、前記機能選択手段を介して機器の機能を選択させ、選択された機能に基づいてキャラクタの言葉と動作を決定する中央制御手段と
を具備することを特徴とする対話型操作支援システム。
An interactive operation support system that supports user operations on a composite device having a plurality of functions,
Display means;
A character control unit that generates a character image and presents the character to the user via the display unit; a voice output unit;
Output speech control means for synthesizing the words spoken by the character and outputting externally via the speech output means;
Voice input means;
Input voice recognition means for recognizing the voice of the user input via the voice input means;
Name storage means for storing names of characters individually associated with a plurality of functions of the composite device;
It is determined whether or not the name of the character held in the name storage means is included in the user's words acquired by the input voice recognition means, and if included, the name of the character from a plurality of functions of the device A function selection means for selecting a function corresponding to
A central control means for selecting a function of the device via the function selection means based on the user's words acquired by the input voice recognition means, and determining a character's words and actions based on the selected functions. Interactive operation support system characterized by
前記キャラクタ制御手段は、複数体のキャラクタ画像を生成し、前記表示手段に複数体のキャラクタ画像が同時に出現することを特徴とする、請求項1に記載の対話型操作支援システム。 The interactive operation support system according to claim 1, wherein the character control means generates a plurality of character images, and the plurality of character images appear simultaneously on the display means. 前記入力音声認識手段により取得したユーザの言葉に、前記名称記憶手段が保持しているキャラクタの名称が含まれる場合、前記中央制御手段が、前記キャラクタの名称に対応するキャラクタの動作を変更するように前記キャラクタ制御手段に指令を出すことを特徴とする、請求項1または請求項2に記載の対話型操作支援システム。 When the user's words acquired by the input speech recognition means include the name of the character held by the name storage means, the central control means changes the action of the character corresponding to the character name. The interactive operation support system according to claim 1 or 2, wherein a command is issued to the character control means. 前記中央制御手段が、キャラクタの話す言葉として、キャラクタの名称に対応する機能に関する説明を設定することで、キャラクタによるヘルプ機能を実現することを特徴とする、請求項1から3の何れかに記載の対話型操作支援システム。 The said central control means implement | achieves the help function by a character by setting the description regarding the function corresponding to the name of a character as a word which a character speaks, The claim 1 characterized by the above-mentioned. Interactive operation support system. さらに前記名称記憶手段が保持しているキャラクタの名称と機能グループとの対応を変更するための名称変更手段を備え、ユーザの好みに合わせてキャラクタの名称を変更できるようにしたことを特徴とする、請求項1から4の何れかに記載の対話型操作支援システム。 Furthermore, it is provided with a name changing means for changing the correspondence between the name of the character held by the name storage means and the function group, and the name of the character can be changed according to the user's preference. 5. An interactive operation support system according to any one of claims 1 to 4.
JP2003286651A 2003-08-05 2003-08-05 Interactive operation supporting system Pending JP2005056170A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003286651A JP2005056170A (en) 2003-08-05 2003-08-05 Interactive operation supporting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003286651A JP2005056170A (en) 2003-08-05 2003-08-05 Interactive operation supporting system

Publications (1)

Publication Number Publication Date
JP2005056170A true JP2005056170A (en) 2005-03-03

Family

ID=34365884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003286651A Pending JP2005056170A (en) 2003-08-05 2003-08-05 Interactive operation supporting system

Country Status (1)

Country Link
JP (1) JP2005056170A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007256456A (en) * 2006-03-22 2007-10-04 Denso It Laboratory Inc Content providing apparatus and content providing method
KR100764287B1 (en) * 2005-07-30 2007-10-05 엘지전자 주식회사 Air pollution indication system of refrigerator
KR100792074B1 (en) 2005-10-05 2008-01-04 엘지전자 주식회사 Avatar refrigerator
KR100792073B1 (en) 2005-09-20 2008-01-04 엘지전자 주식회사 Effect sound change-type refrigerator
JP2011139143A (en) * 2009-12-25 2011-07-14 Sharp Corp Display device, television receiver, display method, program, and recording medium
JP2013232230A (en) * 2013-07-25 2013-11-14 Sharp Corp Display device, television receiver, display method, program, and recording medium
WO2015186445A1 (en) * 2014-06-03 2015-12-10 ソニー株式会社 Information processing device, information processing method, and program
JP6420514B1 (en) * 2018-04-04 2018-11-07 一般社団法人It&診断支援センター・北九州 Conversation robot
JP6447689B1 (en) * 2017-09-11 2019-01-09 富士ゼロックス株式会社 Information processing apparatus and program
US10283109B2 (en) 2015-09-09 2019-05-07 Samsung Electronics Co., Ltd. Nickname management method and apparatus
CN111699529A (en) * 2017-12-06 2020-09-22 索尼互动娱乐股份有限公司 Facial animation for social Virtual Reality (VR)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100764287B1 (en) * 2005-07-30 2007-10-05 엘지전자 주식회사 Air pollution indication system of refrigerator
KR100792073B1 (en) 2005-09-20 2008-01-04 엘지전자 주식회사 Effect sound change-type refrigerator
KR100792074B1 (en) 2005-10-05 2008-01-04 엘지전자 주식회사 Avatar refrigerator
JP2007256456A (en) * 2006-03-22 2007-10-04 Denso It Laboratory Inc Content providing apparatus and content providing method
JP2011139143A (en) * 2009-12-25 2011-07-14 Sharp Corp Display device, television receiver, display method, program, and recording medium
JP2013232230A (en) * 2013-07-25 2013-11-14 Sharp Corp Display device, television receiver, display method, program, and recording medium
JPWO2015186445A1 (en) * 2014-06-03 2017-04-20 ソニー株式会社 Information processing apparatus, information processing method, and program
CN106463110A (en) * 2014-06-03 2017-02-22 索尼公司 Information processing device, information processing method, and program
WO2015186445A1 (en) * 2014-06-03 2015-12-10 ソニー株式会社 Information processing device, information processing method, and program
US10657959B2 (en) 2014-06-03 2020-05-19 Sony Corporation Information processing device, information processing method, and program
US10283109B2 (en) 2015-09-09 2019-05-07 Samsung Electronics Co., Ltd. Nickname management method and apparatus
JP6447689B1 (en) * 2017-09-11 2019-01-09 富士ゼロックス株式会社 Information processing apparatus and program
JP2019050519A (en) * 2017-09-11 2019-03-28 富士ゼロックス株式会社 Information processing apparatus and program
US10805243B2 (en) 2017-09-11 2020-10-13 Fuji Xerox Co., Ltd. Artificial intelligence conversation interface for receiving and interpreting user input
CN111699529A (en) * 2017-12-06 2020-09-22 索尼互动娱乐股份有限公司 Facial animation for social Virtual Reality (VR)
JP2021505943A (en) * 2017-12-06 2021-02-18 株式会社ソニー・インタラクティブエンタテインメント Face animation for social virtual reality (VR)
JP6420514B1 (en) * 2018-04-04 2018-11-07 一般社団法人It&診断支援センター・北九州 Conversation robot
JP2019184694A (en) * 2018-04-04 2019-10-24 一般社団法人It&診断支援センター・北九州 Conversation robot

Similar Documents

Publication Publication Date Title
US10565990B1 (en) Signal processing based on audio context
JP5819269B2 (en) Electronic device and control method thereof
US10276157B2 (en) Systems and methods for providing a voice agent user interface
US9148688B2 (en) Electronic apparatus and method of controlling electronic apparatus
JP6482911B2 (en) Device control method and electric device
CN107430855B (en) Context sensitive dynamic update of a speech to text model in a speech enabled electronic device
KR20180072845A (en) Providing suggested voice-based action queries
TWI249729B (en) Voice browser dialog enabler for a communication system
KR101284594B1 (en) Image processing apparatus and control method thereof, image processing system
WO2015186445A1 (en) Information processing device, information processing method, and program
MX2014001447A (en) Electronic apparatus and method for controlling thereof.
US20140095171A1 (en) Systems and methods for providing a voice agent user interface
US20140095172A1 (en) Systems and methods for providing a voice agent user interface
US20130041665A1 (en) Electronic Device and Method of Controlling the Same
WO2018100743A1 (en) Control device and apparatus control system
US20090006100A1 (en) Identification and selection of a software application via speech
JP2002073322A (en) On-demand interface device and its window display device
JP2005056170A (en) Interactive operation supporting system
US20140095167A1 (en) Systems and methods for providing a voice agent user interface
KR20190006323A (en) Remotely controller and method for receiving a user&#39;s voice thereof
CN103428339A (en) Method for controlling mobile phone to be operated through voice input
JP2007086935A (en) Multiplex work support system and multiplex work support method
WO2014055181A1 (en) Systems and methods for providing a voice agent user interface
CN111768755A (en) Information processing method, information processing apparatus, vehicle, and computer storage medium
JP2005241971A (en) Projector system, microphone unit, projector controller, and projector