JP2002169818A - Device and system for supporting user - Google Patents

Device and system for supporting user

Info

Publication number
JP2002169818A
JP2002169818A JP2000369116A JP2000369116A JP2002169818A JP 2002169818 A JP2002169818 A JP 2002169818A JP 2000369116 A JP2000369116 A JP 2000369116A JP 2000369116 A JP2000369116 A JP 2000369116A JP 2002169818 A JP2002169818 A JP 2002169818A
Authority
JP
Japan
Prior art keywords
user
utterance
information
character
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000369116A
Other languages
Japanese (ja)
Inventor
Mutsumi Ikeda
睦美 池田
Atsushi Maeda
篤志 前田
Tsugufumi Matsuoka
継文 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2000369116A priority Critical patent/JP2002169818A/en
Priority to US09/822,798 priority patent/US20020052913A1/en
Publication of JP2002169818A publication Critical patent/JP2002169818A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To actualize user-friendly environment wherein information can speedily be retrieved. SOLUTION: An origin server 20 has a speech specifying block for specifying a user's speech, which is compared with a collection of user's speeches to transfer the processing to an expert server which should reply. On the expert server, an agent replies to the user's speech. The origin server 20 further has a collection of additional speeches triggering the start of information retrieval and when the user's speech is included therein, an information retrieval part performs retrieval processing. The retrieval result is presented in the form of a character-based speech to the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、ユーザ支援技術
に関する。この発話はとくに、エージェントを利用して
ユーザの操作、検索その他の処理を支援するシステムに
関する。
[0001] The present invention relates to user support technology. This utterance particularly relates to a system that supports user operations, search, and other processes using an agent.

【0002】[0002]

【従来の技術】インターネットの利用が進むにつれ、そ
の主要なアプリケーションであるWWW(World Wide W
eb)の利用者が激増し、WWWのふたつの利用形態、す
なわち情報の発信と検索がユーザに広く浸透した。情報
の発信が増えるにつれ、たいがいの情報はいずれかのW
ebサイトのいずれかのページにあるという状況が現実
になった。しかし、検索対象であるWebサイトやその
ページがあまりにも多くなった結果、求める情報はどこ
かにあると確信しつつ、現実にはなかなかその情報へた
どり着けない状況が日常的になっている。
2. Description of the Related Art As the use of the Internet advances, its main application, WWW (World Wide W
The number of users of eb) has increased dramatically, and two forms of use of the WWW, that is, transmission and retrieval of information, have widely spread to users. As information transmission increases, most of the information
The situation of being on any page of the website has become a reality. However, as a result of an excessive number of Web sites and pages to be searched, it is becoming common to find that the information to be sought is somewhere, but in reality it is difficult to reach that information.

【0003】こうした状況に敏感な検索系ポータルサイ
トでは、以前より、情報の階層化や検索方法の洗練に努
めている。すなわち、ユーザは予め絞り込まれたトピッ
クの範囲において、論理和、論理積などの検索条件を駆
使することにより、情報の洪水から欲しい情報を効率的
に発見できるというものである。
In search-related portal sites that are sensitive to such situations, efforts have been made to stratify information and refine search methods. That is, a user can efficiently find desired information from a flood of information by making full use of search conditions such as a logical sum and a logical product within a narrowed topic range.

【0004】[0004]

【発明が解決しようとする課題】しかし、インターネッ
ト利用が専門家に限られていた時代ならともかく、検索
の実務に不慣れなユーザによるWWWの利用が増えた今
日、高度な検索式の利用を一般ユーザに求めることは困
難である。また、情報の激増に従って情報の階層が深く
なり、求める情報がどこに分類されているか把握できな
い場合も多い。情報を発信するサイトは増加の一途を辿
り、かつ相当数のユーザのコンピュータ利用経験が浅い
今日の状況から、情報の氾濫が情報の利用を妨げる事態
が喚起されつつある。
However, in the era when the use of the Internet was limited to specialists, and the use of WWW by users unfamiliar with the business of search has increased, the use of advanced search formulas has become more difficult for general users. It is difficult to ask for. In addition, the information hierarchy becomes deeper with the rapid increase of information, and it is often impossible to grasp where the required information is classified. The number of sites that transmit information has been increasing, and today's situation in which a considerable number of users have little experience in using computers has caused a situation in which a flood of information hinders the use of information.

【0005】本発明は、そうした課題に鑑みてなされた
ものであり、その目的は、ユーザがより親しみやすい環
境の中で所望の情報へ到達し、または所望の処理を円滑
にコンピュータその他の装置に実行させることの可能な
ユーザ支援技術の提供にある。
The present invention has been made in view of such a problem, and an object of the present invention is to reach desired information in a user-friendly environment or to smoothly execute desired processing on a computer or other device. An object of the present invention is to provide a user support technology that can be executed.

【0006】[0006]

【課題を解決するための手段】本発明のある態様は、ユ
ーザ支援装置(以下、単に「装置」または「本装置」と
もいう)に関する。この装置は、ユーザの発話を想定し
て作成された電子的なユーザ発話集を有し、前記ユーザ
から発話が入力されたときその内容を特定する発話特定
ブロックと、前記発話に対する応答を目的とするエージ
ェントの行動を想定して作成された電子的なエージェン
ト行動集を有し、前記ユーザの発話に前記エージェント
によって応答せしめる応答ブロックと、前記ユーザが検
索を希望する情報の内容を予め取得して保持する検索内
容保持部と、前記情報を検索する情報検索部と含み、前
記発話特定ブロックはさらに、前記情報検索部が前記検
索を開始すべき発話を想定して作成された付加発話集を
有し、前記ユーザからの発話がその付加発話集に含まれ
るとき、その内容を特定し、前記情報検索部は、前記ユ
ーザが前記付加発話集に含まれる発話を行ったことを契
機として、前記情報の検索を開始する。
One embodiment of the present invention relates to a user support apparatus (hereinafter, also simply referred to as "apparatus" or "this apparatus"). This device has an electronic user utterance collection created assuming a user's utterance, and an utterance specifying block for specifying the content when an utterance is input from the user; Having a collection of electronic agent actions created assuming the action of the agent to be performed, a response block for allowing the agent to respond to the utterance of the user, and a content of information that the user desires to search for in advance. The utterance identification block includes a search content holding unit to be held and an information search unit to search the information, and the utterance identification block further includes an additional utterance collection created assuming an utterance to start the search by the information search unit. When the utterance from the user is included in the additional utterance collection, the content is specified, and the information search unit determines that the user has included the utterance included in the additional utterance collection. Triggered by you made, start searching for the information.

【0007】「エージェント」は、ユーザに代わって情
報の検索を行ったり、ユーザと対話しながら所望の情報
へ到達するための支援を行う機能の総称であり、主に擬
人化されたキャラクタを画面に登場させ、ユーザとの対
話を行う。エージェントは、キャラクタのように可視的
であるとは限らず、システムのバックエンド等、見えな
いところでユーザを支援するプログラムその他の処理機
能を指してもよい。エージェントの「行動」は、エージ
ェントの発話、画像、動作その他、支援のための処理に
関連する任意の処理要素や処理動作を指す。
[0007] "Agent" is a general term for a function of searching for information on behalf of a user and supporting the user to reach desired information while interacting with the user. To interact with the user. An agent is not always visible as a character, and may refer to a program or other processing function that supports a user in an invisible place, such as a system back end. The “action” of the agent indicates an utterance, an image, an action, or any other processing element or processing operation related to the processing for support.

【0008】このユーザ支援装置において、前記付加発
話集に盛り込むべき内容を前記ユーザ発話集に組み入れ
ることによりそれらを前記ユーザ発話集に一元化しても
よい。これにより、ユーザの発話を特定する際にユーザ
発話集と付加発話集の双方に一度に照合することができ
る。
In this user support apparatus, the contents to be included in the additional utterance collection may be integrated into the user utterance collection by incorporating them into the user utterance collection. Thereby, when specifying the user's utterance, it is possible to collate both the user's utterance collection and the additional utterance collection at once.

【0009】前記情報検索部は、前記情報の検索を自発
的に開始する自発検索部をさらに含んでもよい。ユーザ
の発話を待たずに情報の検索を行っておくので、ユーザ
から情報を要求されたときに迅速に提示することができ
る。情報を提示する際も、ユーザの発話を待たず自発的
に提示してもよい。検索を行うタイミングは、所定の間
隔で定期的に行ってもよいし、ネットワークの負荷が少
ない時間帯に行ってもよい。
[0009] The information search unit may further include a spontaneous search unit that spontaneously starts searching for the information. Since the information is searched without waiting for the user's utterance, the information can be promptly presented when requested by the user. When presenting the information, the information may be presented spontaneously without waiting for the utterance of the user. The search may be performed periodically at predetermined intervals or may be performed during a time period when the load on the network is small.

【0010】このユーザ支援装置は、前記情報の属する
分野ごとに擬人化されたキャラクタを対応づけ、前記検
索の結果をその情報の属する分野に対応したキャラクタ
の発話として前記ユーザへ示すキャラクタ表示部をさら
に含んでもよい。これにより、キャラクタ自身が主体的
に検索を行っているように見せることができ、より親し
みやすい環境を提供することができる。
The user support apparatus includes a character display unit that associates a personified character with each field to which the information belongs and displays the result of the search to the user as an utterance of a character corresponding to the field to which the information belongs. It may further include. As a result, it is possible to make it appear that the character itself is performing the search independently, and it is possible to provide a more friendly environment.

【0011】前記検索内容保持部は、ウェブサイトのネ
ットワークアドレスをブックマーク情報として保持する
ブックマーク保持部を含み、前記情報検索部は、前記ウ
ェブサイトの更新状況を取得してもよい。前記キャラク
タ表示部は、前記キャラクタに対応づけられた分野に属
する前記ウェブサイトが更新されていたとき、そのキャ
ラクタの発話として前記更新状況を前記ユーザへ提示し
てもよい。ネットワークアドレスは、インターネット上
の情報にアクセスするための表記であるURL(Univer
sal Resource Locator)であってもよい。ブックマーク
情報はキャラクタごとに複数登録してもよい。このと
き、キャラクタはブックマークを整理するフォルダとし
ても機能する。更新状況は、ユーザが関連した発話を行
ったときに提示されてもよいし、キャラクタから自発的
に提示してもよい。
[0011] The search content holding unit may include a bookmark holding unit that holds a network address of a website as bookmark information, and the information search unit may acquire an update status of the website. When the website belonging to the field associated with the character has been updated, the character display unit may present the update status to the user as an utterance of the character. The network address is a URL (Univer) for accessing information on the Internet.
sal Resource Locator). A plurality of bookmark information may be registered for each character. At this time, the character also functions as a folder for organizing bookmarks. The update status may be presented when the user makes a related utterance, or may be presented spontaneously by the character.

【0012】このユーザ支援装置は、前記キャラクタの
属性値を管理し、前記ユーザの前記キャラクタに対する
扱いにより前記属性値を変化させ、前記属性値に応じて
前記キャラクタの行動を変化させるキャラクタ管理部を
さらに含んでもよい。前記キャラクタ管理部は、前記属
性値に基づいて、前記キャラクタに対応づけられた分野
に属する前記ウェブサイトの更新状況を取得する頻度を
変更してもよい。これにより、ユーザはよりキャラクタ
に親しみを感じ、楽しみながら情報を得ることができ
る。
[0012] The user support device includes a character management unit that manages the attribute value of the character, changes the attribute value according to the handling of the character by the user, and changes the behavior of the character according to the attribute value. It may further include. The character management unit may change a frequency of acquiring an update status of the website belonging to a field associated with the character based on the attribute value. This allows the user to feel more familiar with the character and obtain information while having fun.

【0013】本発明の別の態様は、ユーザ支援システム
に関する。このユーザ支援システムは、前述のユーザ支
援装置を専門分野に応じて複数設け、それらを異なるノ
ードとしてネットワークに接続し、かつそれらのユーザ
支援装置の前記ユーザ発話集、前記エージェント行動集
および前記付加発話集を、それぞれ当該装置の専門分野
を中心に形成する。その場合、ユーザがクライアント、
ユーザ支援装置がサーバとなり、サーバクライアントシ
ステムが構築される。ユーザ支援装置は、ユーザに対す
るサービスの内容ごとに設けられてもよく、たとえばニ
ュース、占い、旅行、料理、ビジネス、健康などのトピ
ックごとに設けられてもよい。この場合、それぞれのユ
ーザ支援装置が明確なテーマをもっているため、エージ
ェントの洗練が比較的容易になる。また、トピックごと
に異なるノードで処理ができるため、分散処理による負
荷の軽減が図られる。
[0013] Another embodiment of the present invention relates to a user support system. In this user support system, a plurality of the above-mentioned user support devices are provided according to their specialty fields, these are connected to a network as different nodes, and the user utterance collection, the agent action collection and the additional utterance of those user support devices are provided. The collections are formed around the specialty of the device. In that case, the user is the client,
The user support device becomes a server, and a server client system is constructed. The user support device may be provided for each service content for the user, and may be provided for each topic such as news, fortune-telling, travel, cooking, business, and health. In this case, since each user support device has a clear theme, the refinement of the agent is relatively easy. Further, since processing can be performed by different nodes for each topic, the load can be reduced by distributed processing.

【0014】このユーザ支援システムにおいて、前記ユ
ーザ支援装置は、それぞれ前記応答ブロックを自ノード
に保持する一方、前記発話特定ブロックを前記ネットワ
ークのひとつのノードにおいて共用してもよい。この構
成では、共用される発話特定ブロックには、他の全ての
応答ブロックに対応するユーザ発話集が含まれてもよ
い。このとき、発話特定ブロックを含むユーザ支援装置
は、ユーザ支援システム内で処理可能な全ての発話を特
定できるエントランスまたはポータル的なサーバであ
り、そこで特定された発話の内容にしたがい、複数のユ
ーザ支援装置から適切なものが選定されてもよい。これ
により、発話の内容の特定と、エージェントの応答とを
異なるノードで処理できるので、分散処理による負荷の
軽減が図られる。
[0014] In this user support system, the user support device may hold the response block in its own node while sharing the utterance identification block in one node of the network. In this configuration, the shared utterance specifying block may include a collection of user utterances corresponding to all other response blocks. At this time, the user support device including the utterance specifying block is an entrance or portal-like server that can specify all utterances that can be processed in the user support system. According to the content of the specified utterance, a plurality of user support devices are provided. An appropriate device may be selected from the devices. Thus, the content of the utterance and the response of the agent can be processed by different nodes, so that the load can be reduced by the distributed processing.

【0015】このユーザ支援システムにおいて、前記発
話特定ブロックは、前記ユーザの発話を前記ユーザ発話
集の中で検索する発話検索部と、前記ユーザの発話が前
記ユーザ発話集の中に見い出されなかったとき、その旨
をシステム管理者へ通知する通知部とを含んでもよい。
その場合、管理者がユーザに別途対応したり、ユーザ発
話集およびエージェント行動集を改訂したりすることが
できる。
In this user support system, the utterance identification block includes an utterance search unit that searches for the utterance of the user in the utterance collection of the user, and the utterance of the user is not found in the utterance collection of the user. At this time, a notification unit for notifying the system administrator of this fact may be included.
In that case, the administrator can separately deal with the user or revise the user utterance collection and the agent action collection.

【0016】前記発話特定ブロックは、前記ユーザ発話
集の内容に対するインデックスを保持するインデックス
格納部を有し、前記検索部は、前記ユーザの発話が入力
されたとき、前記インデックス格納部に対して初期的な
検索をかけてもよい。この場合、前記検索部は、前記ユ
ーザの発話が入力されたとき、前記インデックス格納部
に対して初期的な検索、すなわち、絞込のための検索等
をかけることができ、検索の高速化が実現する。
The utterance specifying block has an index storage unit for holding an index for the contents of the user utterance collection, and the search unit stores the index in the index storage unit when the utterance of the user is input. Search may be performed. In this case, when the utterance of the user is input, the search unit can perform an initial search, that is, a search for narrowing down, on the index storage unit, and the search can be speeded up. Realize.

【0017】このユーザ支援システムは、前記ユーザ発
話集の使用を希望する者に対して、当該発話集をオフラ
インまたはオンラインで提供するライブラリ提供部をさ
らに含んでもよい。オフラインによる提供には、たとえ
ば、ユーザ発話集をパッケージとして提供するなどの方
法がある。オンラインによる提供には、たとえば、ユー
ザ発話集を置いたサーバを設け、そのライブラリサイト
の利用権を提供するなどの方法がある。ユーザ発話集の
中でも、ユーザの一般的な発話を自然言語のライブラリ
として記録した一般発話ライブラリを提供してもよい。
この構成により、第三者がユーザ発話集、付加発話集、
およびエージェント行動集を独自に開発して、新たなユ
ーザ支援装置を設けることが可能となり、ひいては、ユ
ーザ支援システムのさらなる充実化を図ることができ
る。
The user support system may further include a library providing unit for providing the utterance collection to a person who wants to use the utterance collection, offline or online. Offline provision includes, for example, a method of providing a collection of user utterances as a package. Examples of the online provision include a method of providing a server on which a collection of user utterances is placed and providing the right to use the library site. Among the user utterance collections, a general utterance library in which general utterances of the user are recorded as a library of natural language may be provided.
With this configuration, a third party can collect user utterances, additional utterances,
In addition, a new user support device can be provided by independently developing the agent action collection and the user support system can be further enhanced.

【0018】本システムはさらに、前記ユーザによる本
システムへのアクセス記録を取得する記録部を含んでも
よい。この場合、前記応答ブロックは、前記応答のため
の前記エージェントの発話を前記ユーザによるアクセス
の状況にしたがって複数の候補から選択してもよい。例
えば、あるユーザがエージェントAに対して「こんにち
は」といったとき、そのユーザによる初回の訪問であれ
ば、エージェントAは「こんにちは」と答えればよい
が、2回目であれば「やあ、また会いましたね」などと
応答してもよい。この場合、ユーザのアクセス履歴をも
とに最適と思われるものが選択され、より自然な、また
は、より親しみやすい会話が実現する。
The system may further include a recording unit for acquiring a record of access to the system by the user. In this case, the response block may select an utterance of the agent for the response from a plurality of candidates according to a situation of access by the user. For example, when a user such as "Hello" to the agent A, if the initial visits by the user, I agent A may If you answer "Hello", but if a second time, "Hey, I met again And so on. In this case, the most suitable one is selected based on the access history of the user, and a more natural or more friendly conversation is realized.

【0019】なお、以上の構成要素の任意の組合せ、本
発明の表現を方法、装置、システム、記録媒体、コンピ
ュータプログラムなどの間で変換したものもまた、本発
明の態様として有効である。
It is to be noted that any combination of the above-described components and any conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as embodiments of the present invention.

【0020】[0020]

【発明の実施の形態】図1は、第1の実施形態に係るユ
ーザ支援システム16を含むネットワークシステム10
の全体構成を示す。ここでは、ユーザ端末12とユーザ
支援システム16がインターネット14を介して接続さ
れている。ユーザ端末12はPC(パーソナルコンピュ
ータ)、PDA、インターネット14へ接続可能な携帯
電話、その他任意のハードウエアである。
FIG. 1 shows a network system 10 including a user support system 16 according to a first embodiment.
1 shows the entire configuration. Here, the user terminal 12 and the user support system 16 are connected via the Internet 14. The user terminal 12 is a PC (personal computer), a PDA, a mobile phone connectable to the Internet 14, or any other hardware.

【0021】ユーザ支援システム16は、起点サーバ2
0、おしゃべりサーバ24、およびグルメサーバ26を
有し、これらがそれぞれインターネット14に接続され
ている。起点サーバ20は、ユーザの発話を想定して作
成された電子的なユーザ発話集を有し、ユーザから発話
が入力されたときその内容を特定する発話特定ブロック
を保持する。この発話特定ブロックは、ユーザ支援シス
テム内の他のサーバ、すなわち、おしゃべりサーバ24
およびグルメサーバ26により共用される。おしゃべり
サーバ24およびグルメサーバ26は、それぞれ、発話
に対する応答を目的とするエージェントの行動を想定し
て作成された電子的なエージェント行動集を有し、ユー
ザの発話にエージェントによって応答せしめる応答ブロ
ックを自ノードに保持する。
The user support system 16 includes the origin server 2
0, a talking server 24 and a gourmet server 26, which are connected to the Internet 14, respectively. The origin server 20 has an electronic user utterance collection created assuming the user's utterance, and holds an utterance specifying block for specifying the content when the utterance is input from the user. This utterance identification block is stored in another server in the user support system, that is, the talking server 24.
And the gourmet server 26. The chatting server 24 and the gourmet server 26 each have an electronic agent action book created assuming the action of the agent for the purpose of responding to the utterance, and automatically generate a response block that causes the agent to respond to the utterance of the user. Keep in node.

【0022】起点サーバ20、おしゃべりサーバ24、
グルメサーバ26は異なるネットワークノードとして構
成されており、ユーザの発話の特定処理とエージェント
の応答処理を分散することができる。また、エージェン
トもその担当分野に応じて別ノードにすることができ、
エージェント単位のメンテナンスが容易になる。おしゃ
べりサーバ24、グルメサーバ26という名称もその担
当分野または専門分野に応じて与えられている。以下、
おしゃべりサーバ24、グルメサーバ26等を総括的に
「専門サーバ」とよび、それらのサーバに置かれたエー
ジェントを「専門エージェント」とよぶ。ユーザ支援シ
ステム16は一体に構成され、たとえばひとつのポータ
ルサイト内に構成されてもよいが、以下の説明では別ノ
ードとして構成され、起点サーバ20がユーザ端末12
に対してポータルサーバとして振る舞う例を考える。
Origin server 20, talking server 24,
The gourmet server 26 is configured as a different network node, and can distribute the user's utterance specifying process and the agent's response process. Agents can also be different nodes depending on their area of responsibility,
Easy maintenance for each agent. The names of the chat server 24 and the gourmet server 26 are also given according to their field of specialization or specialty. Less than,
The talking server 24, the gourmet server 26, and the like are collectively referred to as "specialized servers", and the agents placed on those servers are referred to as "specialized agents". The user support system 16 may be integrally configured, for example, may be configured in one portal site. However, in the following description, the user support system 16 is configured as another node, and the origin server 20 is connected to the user terminal 12.
Consider an example of acting as a portal server for.

【0023】ユーザの発話は、まず起点サーバ20へ送
られ、ユーザ発話集に照らして内容が特定される。そし
て、その内容に応じて応答すべきエージェントが特定さ
れ、応答ブロックにより応答処理が実行される。たとえ
ば、「こんにちは」などの一般的なあいさつに対して
は、おしゃべりサーバ24に実装されたエージェント
(以下、「おしゃべりエージェント」ともいう)が応答
し、「ぎょうざのおいしい店をおしえて」などの料理、
食事等に関する発話に対しては、グルメサーバ26に実
装されたエージェント(以下、「グルメエージェント」
ともいう)が応答する。それぞれの専門エージェント
が、ユーザと対話していく中でユーザの望む情報を的確
に聞き出し、膨大な量の情報の中から所望の情報を見つ
け出すための支援を行う。
The user's utterance is first sent to the origin server 20, and the content is specified in light of the user's utterance collection. Then, an agent to respond to is specified according to the content, and response processing is executed by a response block. For example, for a general greeting such as "Hello", the agent that has been implemented in the chat server 24 (hereinafter also referred to as "chat agent") is a response, such as "tell me a delicious store of dumplings" cuisine,
For an utterance related to a meal or the like, an agent mounted on the gourmet server 26 (hereinafter, “gourmet agent”)
Responds). Each specialized agent accurately listens to information desired by the user while interacting with the user, and provides support for finding desired information from a vast amount of information.

【0024】本実施形態のユーザ支援システムでは、ユ
ーザが関心を持っていてよく検索を行う情報の内容を予
め登録させ保持しておく。これにより、ユーザがその情
報に関連した発話を行ったときに、すぐに検索を開始す
ることができる。また、予め検索を行っておくことで、
すぐに検索結果を提示することができる。検索を開始す
るトリガとなるユーザ発話、または検索結果を表示する
トリガとなるユーザ発話をうまく調整することにより、
タイミングよくユーザへ情報を提示することができ、使
い勝手を向上させることができる。
In the user support system of the present embodiment, the contents of information that the user is interested in and frequently searches for are registered and stored in advance. Thus, the search can be started immediately when the user makes an utterance related to the information. Also, by performing a search in advance,
Search results can be presented immediately. By properly adjusting the user utterance that triggers a search or the trigger that displays search results,
Information can be presented to the user with good timing, and usability can be improved.

【0025】また、情報をユーザへ提示する際に、擬人
化されたキャラクタの発話の形で提示するので、キャラ
クタが主体的に検索を行っているように見える。これに
より、非常に親しみやすく、初心者でも使いやすい環境
を提供することができる。情報が属する専門分野ごとに
キャラクタを対応づけておくので、キャラクタを見ただ
けでどのような分野の情報が提示されているのかが分か
る。とくに、ユーザが頻繁に検索を行う分野のキャラク
タは、頻繁に登場してユーザと対話することとなり、ユ
ーザはそのキャラクタに愛着を感じるようになる。
Further, when presenting information to the user, the information is presented in the form of an anthropomorphic utterance of the character, so that the character appears to be independently searching. As a result, it is possible to provide an environment that is very familiar and easy to use even for beginners. Since the character is associated with each specialized field to which the information belongs, it is possible to know what field information is being presented just by looking at the character. In particular, a character in a field that the user frequently searches for appears frequently and interacts with the user, and the user feels attachment to the character.

【0026】そのようなキャラクタを、「お気に入りキ
ャラクタ」として登録しておき、ユーザがすぐに呼び出
せるようにしてもよい。お気に入りキャラクタには、ユ
ーザが気に入ったウェブサイトのURLを登録可能と
し、そのウェブサイトの更新状況をキャラクタが提示す
る。それぞれのキャラクタは、自身の担当する専門分野
に属するウェブサイトのURLを保持するので、ブック
マーク情報を専門分野ごとに整理することができる。す
なわち、キャラクタがブックマークを整理するフォルダ
として機能する。また、キャラクタには複数のURLを
登録しておくことができ、そのウェブサイトの更新状況
をキャラクタが通知してくれるので、ユーザはウェブサ
イトに一つ一つアクセスして更新状況を確認する必要が
ない。更新状況を確認し通知するタイミングは、ユーザ
が関連する発話を行ったときでもよいし、たとえば一定
時間ごとに自発的に行ってもよい。
Such a character may be registered as a "favorite character" so that the user can immediately call it. The favorite character can register the URL of the website that the user likes, and the character presents the update status of the website. Since each character holds the URL of a website belonging to its own specialty, the bookmark information can be organized for each specialty. That is, the character functions as a folder for organizing bookmarks. Also, a plurality of URLs can be registered in the character, and the character notifies the update status of the website, so the user needs to access the websites one by one and check the update status. There is no. The timing of confirming and notifying the update status may be when the user makes a relevant utterance, or may be spontaneous at regular intervals, for example.

【0027】ユーザがお気に入りキャラクタを飼うこと
ができるようにしてもよい。たとえば、画面に「キャラ
クタハウス」を表示し、その中でキャラクタが生活して
いるように見せてもよい。このとき、ユーザのキャラク
タに対する扱いにより、その属性値が変化するようにし
てもよい。そして、その属性値の大小によりキャラクタ
の行動を変化させてもよい。たとえば、「ごきげん」と
いう属性値を設けておき、ユーザがキャラクタを優しく
扱ったときに「ごきげん」属性値が大きくなり、ユーザ
がキャラクタを手荒く扱ったときに「ごきげん」属性値
が小さくなるようにしてもよい。その結果、「ごきげ
ん」属性値が大きいキャラクタの検索頻度を高くし、
「ごきげん」属性値が小さいキャラクタは機嫌が直るま
で検索を行わないようにしてもよい。これにより、ユー
ザはよりいっそうキャラクタに親しみを抱くようにな
る。
The user may be able to keep favorite characters. For example, "Character house" may be displayed on the screen to make it appear as if the character is living in it. At this time, the attribute value may change depending on the handling of the character by the user. Then, the behavior of the character may be changed according to the magnitude of the attribute value. For example, an attribute value of “good-luck” is provided, and when the user treats the character gently, the value of the “good-luck” attribute increases, and when the user handles the character roughly, the “good-luck” attribute The value may be reduced. As a result, the search frequency of characters with a large “goodness” attribute value is increased,
A character with a small “good-luck” attribute value may not be searched until the mood is corrected. Thus, the user becomes more familiar with the character.

【0028】詳細は後に述べるが、図1における処理の
概要は以下のとおりである。ユーザがユーザ端末12を
起動すると、ユーザ端末12内部に実装されたローカル
エージェントが現れる。このローカルエージェントはユ
ーザの最初の発話(以下この発話を「処理開始発話」と
いう)を待つ。処理開始発話はインターネット14を経
由して起点サーバ20へ送信される。このとき、ユーザ
端末12はWWWブラウザによって起点サーバ20のペ
ージを表示している。
Although details will be described later, the outline of the processing in FIG. 1 is as follows. When the user activates the user terminal 12, a local agent mounted inside the user terminal 12 appears. The local agent waits for the user's first utterance (hereinafter, this utterance is referred to as “processing start utterance”). The processing start utterance is transmitted to the origin server 20 via the Internet 14. At this time, the user terminal 12 is displaying the page of the origin server 20 by the WWW browser.

【0029】起点サーバ20には、ユーザ発話集、すな
わちユーザがなすであろう発話の想定集が実装されてい
る。ユーザ発話集には、専門エージェントが検索を開始
する契機となる発話の想定集である付加発話集が組み入
れられ、これらが一元化されている。処理開始発話はユ
ーザ発話集に照合され、発話内容が特定される。その結
果、処理開始発話に応答すべき専門エージェントが特定
され、その専門サーバのURL(同図中URLa、UR
Lbと表記)がユーザ端末12のブラウザへ送られる。
URLを取得したユーザ端末12の画面にはその専門サ
ーバのページが表示され、専門エージェントが現れる。
専門サーバはそれぞれ専門エージェントのためのエージ
ェント行動集をもっており、処理開始発話およびそれ以
降のユーザの発話(以下「通常発話」という)に応答す
る。以下、エージェントの行動として主に発話を例にと
るが、それに限られるものではなく、エージェントの身
振りその他の動作、画像上の色、テクスチャ等の変化、
エージェントによる検索動作その他のプログラム処理な
どでユーザに対応してもよい。
The origin server 20 is provided with a collection of user utterances, that is, a collection of utterances expected to be made by the user. The user utterance collection incorporates additional utterance collections, which are supposed collections of utterances that trigger the search by the specialized agent, and these are integrated. The processing start utterance is collated with the user utterance collection, and the utterance content is specified. As a result, a specialized agent to respond to the processing start utterance is specified, and the URL of the specialized server (URLa, UR in FIG.
Lb) is sent to the browser of the user terminal 12.
The page of the specialized server is displayed on the screen of the user terminal 12 that has acquired the URL, and the specialized agent appears.
Each specialized server has a collection of agent actions for specialized agents, and responds to the processing start utterance and subsequent user utterances (hereinafter referred to as “normal utterances”). In the following, utterance is mainly used as an example of the agent's action, but the present invention is not limited to this, and the agent's gestures and other actions, changes in colors and textures on images,
The agent may respond to the user through a search operation or other program processing.

【0030】処理開始発話が付加発話集に含まれていた
ときは、検索を実行し結果を表示するためのページへジ
ャンプする。そのページでは、ユーザが予め登録してい
た内容に基づいて検索処理を行い、その結果をキャラク
タの発話として提示する。または、ユーザが予め登録し
ていたウェブサイトの更新状況を取得し、その結果をキ
ャラクタの発話として提示する。そして、ユーザの次の
発話を待つ。検索を実行するためのページへ遷移するの
ではなく、検索の開始を専門エージェントへ伝え、背後
で検索処理を実行させてもよい。このとき、画面上で
は、引き続きキャラクタとユーザの間で対話が続行され
てもよい。
When the processing start utterance is included in the additional utterance collection, a search is executed and the process jumps to a page for displaying the result. On that page, a search process is performed based on the content registered by the user in advance, and the result is presented as the utterance of the character. Alternatively, the update status of the website registered by the user in advance is obtained, and the result is presented as the utterance of the character. Then, the user waits for the next utterance. Instead of transiting to the page for executing the search, the start of the search may be notified to the specialized agent, and the search process may be executed behind the scenes. At this time, the dialogue between the character and the user may be continued on the screen.

【0031】ユーザがその専門エージェントに新たな発
話、すなわち通常発話をしたとき、これが取得され、起
点サーバ20へ送られる。起点サーバ20はその発話に
応答すべき専門エージェントを再度特定し、その専門サ
ーバのURLを再度ユーザ端末12へ送信する。以下同
様に、 1.起点サーバ20によるユーザ発話の特定 2.特定された発話を担当する専門サーバの特定 3.その専門サーバに置かれた専門エージェントによる
ユーザへの応答 4.検索処理の実行および検索結果の提示 5.ユーザの通常発話の要求または促進 という一連の処理が繰り返される。処理がつねに一旦起
点サーバ20へ戻り、そこから新たに開始されるため、
起点サーバ20の名がある。
When the user makes a new utterance to the specialized agent, that is, a normal utterance, this is acquired and sent to the origin server 20. The origin server 20 again specifies the specialized agent that should respond to the utterance, and transmits the URL of the specialized server to the user terminal 12 again. Hereinafter, similarly, 1. 1. Identification of user utterance by origin server 20 2. Identification of a specialized server responsible for the identified utterance 3. Response to the user by the specialized agent placed on the specialized server. 4. Execution of search processing and presentation of search results A series of processing of requesting or promoting the user's normal utterance is repeated. Since the processing always returns to the origin server 20 and is newly started from there,
There is a name of the origin server 20.

【0032】図2は起点サーバ20の内部構成を示す。
同図中、「H」は発話データ、「I」は発話のインデッ
クス検索、「F」は特定されたユーザ発話に応答すべき
専門サーバのページのURLを保持するファイルの名
称、「X」は特定できなかった発話(以下、不明発話と
もいう)をそれぞれ示す。図2の構成は、ハードウエア
的には、任意のコンピュータのCPU、メモリ、その他
のLSIで実現でき、ソフトウエア的にはメモリのロー
ドされたプログラムなどによって実現されるが、ここで
はそれらの連携によって実現される機能ブロックを描い
ている。したがって、これらの機能ブロックがハードウ
エアのみ、ソフトウエアのみ、またはそれらの組合せに
よっていろいろな形で実現できることは、当業者には理
解されるところである。以下、同様の配慮は本明細書全
体にわたって有効とする。
FIG. 2 shows the internal configuration of the origin server 20.
In the figure, "H" is utterance data, "I" is an index search of utterance, "F" is the name of a file holding the URL of the page of the specialized server to respond to the specified user utterance, and "X" is Each utterance that could not be identified (hereinafter also referred to as an unknown utterance) is shown. 2 can be realized by a CPU, a memory, or other LSI of an arbitrary computer in terms of hardware, and is realized by a program loaded in the memory in terms of software. Draws functional blocks realized by. Therefore, it will be understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. Hereinafter, similar considerations are valid throughout the present specification.

【0033】通信部30はインターネット14を介して
専門サーバおよびユーザ端末12とやりとりをする。発
話取得部32はユーザ端末12からユーザの発話を取得
し、これを発話検索部34へ送る。また、発話取得部3
2は、専門サーバから専門エージェントの発話を取得
し、これを発話検索部34へ送る。発話検索部34はそ
の発話の第一文字をインデックスファイル36へ照合
し、まずインデックスによる絞り込みをかけ、その後、
発話の内容を特定する。この際、発話全体についてフレ
ーズ検索をかける。フレーズ検索とは、単語の順番まで
含めて一致するものを見いだす処理である。フレーズ検
索で該当するものが見つからないときは、後述のよう
に、発話を形態素に分け、キーワードまたは単語によっ
て近いものを検索する。
The communication unit 30 communicates with the specialized server and the user terminal 12 via the Internet 14. The utterance acquisition unit 32 acquires the utterance of the user from the user terminal 12 and sends the utterance to the utterance search unit 34. The utterance acquisition unit 3
2 acquires the utterance of the specialized agent from the specialized server and sends it to the utterance search unit 34. The utterance search unit 34 checks the first character of the utterance against the index file 36, first narrows down by index, and then
Identify the content of the utterance. At this time, a phrase search is performed for the entire utterance. The phrase search is a process of finding a match including the order of words. If no corresponding phrase is found by the phrase search, as described later, the utterance is divided into morphemes, and a keyword or word is searched for.

【0034】インデックスファイル36は、ユーザ発話
集38に格納されたユーザの想定発話を50音順に並べ
て生成され、前記の第一文字をこのインデックスファイ
ル36に照合することにより、たとえユーザ発話集38
が膨大であっても、非常に高速にユーザの発話を検索す
ることができる。後述するごとく、この実施の形態では
ユーザ発話集の充実化が容易であるため、短期間でユー
ザ発話集38の容量が非常に大きくなることが予想さ
れ、インデックス検索による高速化のメリットは大き
い。
The index file 36 is generated by arranging the user's supposed utterances stored in the user utterance collection 38 in the order of the Japanese syllabary.
Even if is large, the user's utterance can be searched very quickly. As will be described later, since the user utterance collection can be easily enhanced in this embodiment, the capacity of the user utterance collection 38 is expected to be very large in a short period of time, and the merit of speeding up by index search is great.

【0035】付加インデックスファイル37は、付加発
話集39に格納された他のエージェントの想定発話を5
0音順に並べて生成される。図2においては、便宜上、
付加インデックスファイル37とインデックスファイル
36とを別個に示しているが、実際は、付加インデック
スファイル37の内容はインデックスファイル36に組
み入れられ一元化されている。
The additional index file 37 stores 5 supposed utterances of other agents stored in the additional utterance collection 39.
It is generated by arranging it in the order of the zero note. In FIG. 2, for convenience,
Although the additional index file 37 and the index file 36 are shown separately, actually, the contents of the additional index file 37 are incorporated into the index file 36 and are unified.

【0036】インデックスファイル36で発話が特定さ
れると、その発話に応答すべき専門サーバのURL等の
情報が記述されたファイルがインデックスファイル36
内で特定され、ユーザ発話集38または付加発話集39
に内蔵されたそのファイル本体がオープンされ、前記U
RLが判明する。
When an utterance is specified in the index file 36, a file in which information such as the URL of a specialized server to respond to the utterance is described is stored in the index file 36.
User utterance collection 38 or additional utterance collection 39
The file body contained in the file is opened, and the U
The RL is found.

【0037】ユーザ発話集38には、ひとつの発話に対
してひとつのファイルが形成されている。ファイルに
は、ユーザの発話に応答するためのページのURLが記
述されている。図2においては、便宜上、付加発話集3
9とユーザ発話集38とを別個に示しているが、実際
は、付加発話集39の内容はユーザ発話集38に組み入
れられ一元化されている。
In the user utterance collection 38, one file is formed for one utterance. The file describes the URL of a page for responding to the utterance of the user. In FIG. 2, for convenience, additional utterance collection 3
9 and the user utterance collection 38 are shown separately, but in fact, the contents of the additional utterance collection 39 are incorporated into the user utterance collection 38 and are unified.

【0038】ユーザ発話集38または付加発話集39に
より判明したURLは通信部30を経てユーザ端末12
のブラウザに設定され、ユーザ端末12のアクセス先が
その専門サーバになる。厳密には、そのURLは専門サ
ーバのホームページを指しているのではなく、ユーザの
発話に応答するための個別のページを指しており、ひと
つの発話に対してひとつ、または場合により複数のペー
ジが割り当てられている。複数の場合は後述する。
The URL found by the user utterance collection 38 or the additional utterance collection 39 is transmitted via the communication unit 30 to the user terminal 12.
And the access destination of the user terminal 12 becomes the specialized server. Strictly speaking, the URL does not refer to the homepage of the specialized server, but to a separate page for responding to the user's utterance, and one or, in some cases, multiple pages for each utterance. Have been assigned. Multiple cases will be described later.

【0039】ユーザの発話と完全に一致するものがユー
ザ発話集38に格納されているときは問題がないが、と
くにユーザ発話集38の充実化の過程では、そうならな
いことも多い。その場合、発話検索部34は既知の方法
でユーザの発話を形態素に分解し、それらのうち名詞の
論理積をとって再検索をかけるなどの処理により、最も
確からしい発話をユーザ発話集38から見いだす。再検
索の対象となった発話、および、そうした再検索を通し
ても判明しなかった発話は、ともに不明発話として不明
発話ファイル40に記録され、これが通知部42を通じ
て起点サーバ20の管理者へ電子メール等により通報さ
れる。管理者はその発話およびそれに応答すべき専門サ
ーバのページのURLをユーザ発話集38へ新規登録
し、その発話のインデックスをインデックスファイル3
6へ登録し、かつそのページにおける専門エージェント
の発話を含む処理を設計する。このメンテナンスによれ
ば、なんら困難なプロセスなく、不明発話をそのままユ
ーザ発話集38に追加していくことができるため、ユー
ザ発話集38の充実は非常に容易である。
There is no problem when an utterance completely coincident with the user's utterance is stored in the user's utterance collection 38, but in the process of enriching the user's utterance collection 38, this often does not occur. In this case, the utterance search unit 34 decomposes the utterance of the user into morphemes by a known method, and performs a search again by taking the logical product of the nouns among them, thereby obtaining the most likely utterance from the user utterance collection 38. Find out. The utterance targeted for the re-search and the utterance not found through the re-search are both recorded as unknown utterances in the unknown utterance file 40, and this is sent to the administrator of the origin server 20 via the notification unit 42 by e-mail or the like. Notified by The administrator newly registers the utterance and the URL of the page of the specialized server to be responded to in the user utterance collection 38, and stores the index of the utterance in the index file 3.
6 and a process including the utterance of the specialized agent on the page is designed. According to this maintenance, the unknown utterances can be added to the user utterance collection 38 without any difficult process, so that the user utterance collection 38 is very easily enriched.

【0040】アクセス記録部44は、専門サーバに対す
るアクセスの状況をユーザごとにアクセス情報ファイル
46へ記録する。これにより、同じユーザ発話に対して
異なる応答をすることが可能になる。例えば、おしゃべ
りサーバ24を初めて訪問したユーザが「こんにちは」
といったとき、おしゃべりサーバ24の専門エージェン
ト(以下、おしゃべりエージェントともいう)は「はじ
めまして」という。一方、そのユーザによるおしゃべり
サーバ24への再訪に際し、おしゃべりエージェントは
「こんにちは。あれからどうですか。」などということ
ができ、きめの細かい対応が実現する。アクセス記録部
44はアクセスの状況を発話検索部34へ伝える。発話
検索部34はユーザの発話に対応するための専門サーバ
のページが、いまの例のようにユーザ発話集38におい
て複数記述されているとき、その中からアクセスの状況
をもとにふさわしいものを選択し、そのURLをユーザ
端末12のブラウザへ設定する。
The access recording unit 44 records the status of access to the specialized server in the access information file 46 for each user. This makes it possible to make different responses to the same user utterance. For example, a user for the first time visited the chat server 24 is "Hello"
In such a case, the specialized agent of the chat server 24 (hereinafter, also referred to as the chat agent) is referred to as "Hello!" On the other hand, when revisit to the chat server 24 by the user, chat agent can be referred to as "Hello. What about from there.", Fine-grained corresponding to realize. The access recording unit 44 informs the utterance search unit 34 of the access status. When a plurality of pages of the specialized server for responding to the user's utterance are described in the user utterance collection 38 as in the present example, the utterance search unit 34 finds an appropriate one based on the access situation. Select and set the URL in the browser of the user terminal 12.

【0041】図3はインデックスファイル36の内部構
成、図4はユーザ発話集38の内部構成をそれぞれ示
す。インデックスファイル36は50音欄100、ユー
ザの発話欄102、ファイル名欄104を有する。ユー
ザの発話は50音順に整列され、第1文字が「あ」であ
れば、50音欄100の「あ」の下に分類され、以下同
様に第1文字をもとに分類されている。
FIG. 3 shows the internal structure of the index file 36, and FIG. 4 shows the internal structure of the user utterance collection 38. The index file 36 has a Japanese syllabary column 100, a user utterance column 102, and a file name column 104. The utterances of the user are arranged in the order of the Japanese syllabary. If the first character is "A", the utterances are classified under "A" in the Japanese syllabary column 100, and so on.

【0042】ユーザ発話集38はファイル名欄104、
ユーザの発話欄102、応答すべき専門サーバのページ
欄120を有する。例えば、ユーザ発話「やあ」に応答
する専門サーバのページは「URLa43」であり、
「やあ」という発話と「URLa43」の組がファイル
f044を構成する。ユーザの発話は専門サーバごとに
まとめられ、例えばおしゃべりサーバ24が担当すべき
ユーザ発話110と、グルメサーバ26が担当すべきユ
ーザ発話112とがそれぞれひとまとまりで記述されて
いる。インデックスファイル36とユーザ発話集38は
ファイル名によってリンクされ、例えば「こんにちは」
という発話には、インデックスファイル36においてフ
ァイルf045が記述され、これがユーザ発話集38の
ファイルf045を指している。
The user utterance collection 38 includes a file name column 104,
It has a user's utterance field 102 and a page field 120 for a specialized server to respond to. For example, the page of the specialized server responding to the user utterance “Haya” is “URLa43”,
The combination of the utterance “Haya” and “URLa43” constitutes the file f044. The utterances of the users are grouped for each specialized server, and, for example, a user utterance 110 to be in charge of the talking server 24 and a user utterance 112 to be in charge of the gourmet server 26 are collectively described. The index file 36 and the user utterance collection 38 are linked by the file name, for example, "Hello"
In the utterance, the file f045 is described in the index file 36, and this file points to the file f045 of the user utterance collection 38.

【0043】図4のごとく、「こんにちは」に対する応
答のページはURLa1とURLa2のふたつがある。
ここでは、おしゃべりサーバ24にはじめて来たユーザ
にはURLa1、再訪の場合はURLa2がそれぞれ送
信されるとする。
[0043] As shown in FIG. 4, page of the response to the "Hello" There are two URLa1 and URLa2.
Here, it is assumed that URLLa1 is transmitted to the user who first comes to the chatting server 24, and URLa2 is transmitted in the case of returning.

【0044】図5はアクセス情報ファイル46の内部記
述例である。同図では、あるユーザ「user1」は過
去に「おしゃべり」「グルメ」「オークション」という
専門サーバを訪れている。一方、ユーザ「user2」
は「旅行」「PC」という専門サーバを訪れている。し
たがって、user2がおしゃべりサーバ24を訪れる
と、前述のごとく、おしゃべりエージェントから初回訪
問者用の発話がなされ、user1がおしゃべりサーバ
24を訪れると再訪者向けの挨拶が発話される。
FIG. 5 shows an example of the internal description of the access information file 46. In the figure, a user “user1” has visited specialized servers “talking”, “gourmet”, and “auction” in the past. On the other hand, the user "user2"
Is visiting a specialized server called "Travel" and "PC". Therefore, when user2 visits the chatting server 24, as described above, the chatting agent speaks for the first visitor, and when user1 visits the chatting server 24, a greeting for the returning visitor is spoken.

【0045】図6は、付加インデックスファイル37の
内部構成、図7は付加発話集39の内部構成をそれぞれ
示す。前述のように、これらは実際にはインデックスフ
ァイル36およびユーザ発話集38に組み入れられてい
るが、ここでは理解を容易にするために、別個のファイ
ルとして説明する。付加インデックスファイル37は、
50音欄200、ユーザの発話欄202、ファイル名欄
204を有する。ユーザの発話は、インデックスファイ
ル36の場合と同様に、50音順に整列される。
FIG. 6 shows the internal structure of the additional index file 37, and FIG. 7 shows the internal structure of the additional utterance collection 39. As described above, these are actually incorporated in the index file 36 and the user utterance collection 38, but are described here as separate files for easy understanding. The additional index file 37 is
It has a Japanese syllabary column 200, a user utterance column 202, and a file name column 204. The utterances of the user are arranged in the order of the Japanese syllabary as in the case of the index file 36.

【0046】付加発話集39は、ファイル名欄204、
ユーザの発話欄202、応答すべき専門サーバのページ
欄220を有する。例えば、ユーザ発話「更新」に応答
する専門サーバのページは「URLa203」であり、
「更新」という発話と「URLa203」の組がファイ
ルf804を構成する。付加インデックスファイル37
と付加発話集39はファイル名によってリンクされ、例
えば「新着情報」という発話には、付加インデックスフ
ァイル37においてファイルf805が記述され、これ
が付加発話集39のファイルf805を指している。
The additional utterance collection 39 includes a file name column 204,
It has a user utterance column 202 and a page column 220 of a specialized server to respond to. For example, the page of the specialized server responding to the user utterance "update" is "URLa203",
A combination of the utterance “update” and “URLa203” constitutes the file f804. Additional index file 37
The additional utterance collection 39 is linked by a file name. For example, in the utterance “new arrival information”, a file f805 is described in the additional index file 37, which indicates the file f805 of the additional utterance collection 39.

【0047】図8は専門サーバの例として、グルメサー
バ26の内部構成を示す。通信部60はインターネット
14を介してユーザ端末12、起点サーバ20等と交信
する。起点サーバ20の発話検索部34によって特定さ
れたURL、すなわち図4のごとくユーザ発話が「こん
にちは」の場合におけるURLa1またはURLa2
は、通信部60を経てエージェント行動集62に与えら
れる。エージェント行動集62は、専門エージェントの
発話に加えて、その画像や動作を記述するエージェント
データ72を含む。また、発話検索部34によって特定
されたURLと一対一でページが設けられ、具体的に
は、URLa1のページ64、URLa2のページ6
6、URLanのページ68のように構成される。ペー
ジはそれぞれいわゆるWebページであり、グルメエー
ジェントによる発話だけでなく、その画像や動作の表
示、さらにはそのエージェントがなすべきサービス、た
とえば情報の検索なども実行する。すなわち、ユーザの
発話ひとつに対してWebページをひとつ設け、対応の
柔軟性と充実を図る趣旨である。
FIG. 8 shows the internal configuration of the gourmet server 26 as an example of a specialized server. The communication unit 60 communicates with the user terminal 12, the origin server 20, and the like via the Internet 14. When the URL specified by the utterance search unit 34 of the originating server 20, that is, the user's utterance as in Figure 4 of the "Hello" URLa1 or URLa2
Is given to the agent action book 62 via the communication unit 60. The agent action collection 62 includes, in addition to the utterances of the specialized agents, agent data 72 describing images and actions thereof. In addition, a page is provided one-to-one with the URL specified by the utterance search unit 34. Specifically, the page 64 of the URLa1 and the page 6 of the URLa2 are provided.
6. It is configured as a URL 68 page. Each page is a so-called Web page, and executes not only utterance by the gourmet agent, but also display of images and actions thereof, and services to be performed by the agent, for example, retrieval of information. In other words, one Web page is provided for each utterance of the user, and the flexibility and enhancement of the response are intended.

【0048】各ページはほぼ同じ構成であるから、同図
ではURLa1のページ64のみを詳述している。UR
La1のページ64はエージェント出力部70、ユーザ
発話取得部74、特定処理実行部76を有する。これら
は、CGI(Common GatewayInterface)のようにサー
バ側に処理の主たる機能が残るもの、Java(商標)
アプレットやActiveX(商標)のようにクライア
ント側に処理の主たる機能が移動するもの、API(Ap
plication Program Interface)型でサーバとクライア
ントの両方に処理の主たる機能であるJavaアプリケ
ーションなどを配するものなど、いろいろな態様で実現
できる。エージェント出力部70はエージェントデータ
72をもとに、グルメエージェントによってユーザの発
話へ応答する。特定処理実行部76は、前述のごとく、
発話による応答以外の処理、例えば情報の検索、各種プ
ログラムの実行など任意の処理を行う。一例として、こ
のページに到達する原因となったユーザの発話が「新宿
のレストラン情報が知りたい」であれば、グルメエージ
ェントはインターネット14を通してレストラン情報を
検索し、ユーザに示す。ユーザ発話取得部74は、ユー
ザによるそれ以降の通常発話を取得し、これを起点サー
バ20へ通知する。その結果、起点サーバ20によって
新たに専門サーバが特定される。
Since each page has substantially the same configuration, only the page 64 of URLa1 is described in detail in FIG. UR
The La1 page 64 has an agent output unit 70, a user utterance acquisition unit 74, and a specific process execution unit 76. These are those that retain the main processing functions on the server side, such as CGI (Common Gateway Interface), Java (trademark)
APIs such as applets and ActiveX (trademark) whose main function is moved to the client side, API (Ap
It can be realized in various forms, such as a replication program interface type in which a Java application or the like, which is a main function of processing, is provided to both the server and the client. The agent output unit 70 responds to the user's utterance by the gourmet agent based on the agent data 72. The specific process execution unit 76, as described above,
Processing other than the response by utterance, for example, arbitrary processing such as information retrieval and execution of various programs is performed. As an example, if the utterance of the user who has reached this page is “I want to know the restaurant information of Shinjuku”, the gourmet agent searches the restaurant information through the Internet 14 and shows it to the user. The user utterance acquisition unit 74 acquires the subsequent normal utterance by the user and notifies the origin server 20 of this. As a result, a new specialized server is specified by the origin server 20.

【0049】お気に入り登録部80は、ユーザからグル
メエージェントをお気に入りキャラクタに登録したいと
いう要求を受け付けて、お気に入りデータ82へ登録す
る。お気に入り登録部80は、ユーザが検索を希望する
情報の内容およびウェブサイトのURLを取得して、同
様にお気に入りデータ82へ登録する。キャラクタ管理
部84は、キャラクタの属性値を管理し、ユーザのキャ
ラクタに対する扱いにより属性値を変化させる。キャラ
クタの属性値はお気に入りデータ82に保持される。
The favorite registration unit 80 receives a request from the user to register a gourmet agent as a favorite character, and registers it in the favorite data 82. The favorite registration unit 80 acquires the contents of the information that the user wants to search and the URL of the website, and similarly registers them in the favorite data 82. The character management unit 84 manages the attribute value of the character, and changes the attribute value depending on how the user handles the character. The attribute value of the character is held in the favorite data 82.

【0050】図9は、お気に入りデータの内部構成を示
す。お気に入りデータ82には、ユーザ名欄300、検
索内容欄302、キャラクタ属性値欄304、ブックマ
ーク欄312および318が設けられている。検索内容
欄302にはユーザが予め登録した検索を希望する情報
の内容が格納される。すなわち、お気に入りデータ82
は、検索内容保持部としての機能を有する。キャラクタ
属性値欄304は、年齢欄306、ごきげん度欄30
8、知性欄310を有し、キャラクタ管理部84により
管理される。この属性値はキャラクタ表示部がキャラク
タを表示するときに参照される。属性値には、このほか
にも、性別、性格、空腹度などが考えられる。ブックマ
ーク欄は必要に応じて複数設けられ、ユーザが登録した
ブックマーク情報が格納される。ブックマーク欄はそれ
ぞれ、ウェブサイトのURLを格納するURL欄31
4、およびそのウェブサイトを最後に閲覧した日時を格
納する最終閲覧日欄316を有する。たとえば、「us
er1」の情報は、検索を希望する情報の内容は「ぎょ
うざ」および「天気」であり、キャラクタの年齢は「1
年8ヶ月」、ごきげん度は「180」、知性度は「9
5」、登録したブックマークの1つめは「http://○○.
com」で、その最終閲覧日は「2000年11月19
日」、ブックマークの2つめは「http://○○.co.jp」
で、その最終閲覧日は「2000年10月25日」であ
る。
FIG. 9 shows the internal structure of the favorite data. The favorite data 82 includes a user name column 300, a search content column 302, a character attribute value column 304, and bookmark columns 312 and 318. The search content column 302 stores the content of information registered by the user in advance that the user desires to search. That is, the favorite data 82
Has a function as a search content holding unit. The character attribute value column 304 includes an age column 306 and a degree of difficulty column 30
8. It has an intellect column 310 and is managed by the character management unit 84. This attribute value is referred to when the character display unit displays a character. In addition to the attribute values, gender, personality, hunger, and the like can be considered. A plurality of bookmark fields are provided as necessary, and bookmark information registered by the user is stored. Each of the bookmark fields is a URL field 31 for storing a URL of a website.
4, and a last browse date column 316 for storing the date and time when the website was last browsed. For example, "us
In the information of “er1”, the contents of the information desired to be searched are “gyoza” and “weather”, and the age of the character is “1”.
Year and eight months ", the degree of comfort is" 180 ", and the degree of intelligence is" 9 ".
5 ”, and the first registered bookmark is“ http: // xx.
com "and its last browse date is" November 19, 2000
Date ”and the second bookmark is“ http://xx.co.jp ”
The last viewing date is “October 25, 2000”.

【0051】図10は、エージェント行動集62に格納
されたページのうち、検索処理を行うページの例を示
す。URLa2のページ66の特定処理実行部76は、
ユーザが所望する情報をインターネット14を介して検
索する情報検索部77と、自発的に検索を開始する自発
検索部78を含む。情報検索部77および自発検索部7
8は、お気に入りデータ82に格納された検索内容およ
びURL情報を取得して検索を行う。自発検索部78
は、お気に入りデータ82に格納されたキャラクタの属
性値を参照して、検索を行うタイミングを決めてもよ
い。検索結果はエージェント出力部70のキャラクタ表
示部71により、キャラクタの発話の形でユーザへ提示
される。
FIG. 10 shows an example of a page for which a search process is to be performed, among pages stored in the agent action book 62. The specific process execution unit 76 of the page 66 of URLa2
An information search unit 77 that searches for information desired by the user via the Internet 14 and a spontaneous search unit 78 that starts searching spontaneously are included. Information search unit 77 and spontaneous search unit 7
8 obtains the search content and URL information stored in the favorite data 82 and performs a search. Spontaneous search unit 78
May determine the timing for performing the search by referring to the attribute value of the character stored in the favorite data 82. The search result is presented to the user by the character display unit 71 of the agent output unit 70 in the form of an utterance of the character.

【0052】図11は、ユーザ端末12の内部構成を示
す。通信部130はインターネット14を介して起点サ
ーバ20、おしゃべりサーバ24、グルメサーバ26等
と通信する。ユーザインタフェイス138はユーザの意
思決定を促し、またそれを入力するための構成全般の総
称で、キーボード、マウス、表示装置、各種データイン
タフェイスを含む。ローカルエージェント出力部132
はローカルエージェントデータ134を読み出してユー
ザインタフェイス138を通じてユーザへ提供する。ユ
ーザの処理開始発話および通常発話は、ユーザインタフ
ェイス138を介してユーザ発話入力部136に取得さ
れ、これが通信部130、インターネット14を経由し
て起点サーバ20へ送信される。以上が実施の形態の構
成全般であり、以下その処理を具体例で示す。
FIG. 11 shows the internal configuration of the user terminal 12. The communication unit 130 communicates with the origin server 20, the talking server 24, the gourmet server 26, and the like via the Internet 14. The user interface 138 is a general term for a general configuration for prompting and inputting a user's decision and includes a keyboard, a mouse, a display device, and various data interfaces. Local agent output unit 132
Reads the local agent data 134 and provides it to the user through the user interface 138. The user's processing start utterance and normal utterance are acquired by the user utterance input unit 136 via the user interface 138, and transmitted to the origin server 20 via the communication unit 130 and the Internet 14. The general configuration of the embodiment has been described above, and the processing will be described below with a specific example.

【0053】図12はユーザがユーザ端末12を起動し
たとき表示される画面150を示す。ここではローカル
エージェント152が現れ、「ようこそ! 私とおしゃ
べりをいたしましょう。」と話す。ユーザは入力領域1
54に「こんにちは」と入力し、送信ボタンを押す。入
力領域154はユーザがローカルエージェント152を
クリックしたとき現れる構成としてもよく、クリックが
なされない間はローカルエージェント152がとりとめ
のないことばを発し続けてもよいし、ユーザに質問をし
て発話を促してもよい。いずれにせよ、入力された「こ
んにちは」は処理開始発話として起点サーバ20へ送ら
れ、その内容から専門サーバとしておしゃべりサーバ2
4が特定され、ユーザ端末12のアクセス先がそのペー
ジへ移行する。
FIG. 12 shows a screen 150 displayed when the user activates the user terminal 12. Here the local agent 152 appears and says, "Welcome! Let's chat with me." User input area 1
Type "Hello" to 54, press the send button. The input area 154 may be configured to appear when the user clicks on the local agent 152, and the local agent 152 may continue to speak random words while no click is made, or may ask the user a question and prompt the user to speak. You may. In any case, it was entered "Hello" is sent to the origin server 20 as the start of processing speech, chat server 2 from its contents as a specialized server
4 is specified, and the access destination of the user terminal 12 shifts to the page.

【0054】図13はそのとき表示される画面150で
ある。ここではおしゃべりエージェント156が表示さ
れるが、この実施の形態では、ローカルエージェント1
52と同一のエージェント画像を利用することにより、
シームレスな会話が続いているように見せている。おし
ゃべりエージェント156は「こんにちは! 私はおし
ゃべりエージェントのピー子です。・・・」と発話す
る。ユーザが入力領域154で「ぎょうざのおいしい店
をおしえて」と入力し、これを送信すると、これが起点
サーバ20で取得され、新たにグルメサーバ26のひと
つのページが特定される。特定されたページのURLは
ユーザ端末12へ送られ、ユーザ端末12のアクセス先
がそのページへ移る。
FIG. 13 shows a screen 150 displayed at that time. Here, the talking agent 156 is displayed. In this embodiment, the local agent 1 is displayed.
By using the same agent image as 52,
Looks like a seamless conversation continues. The chat agent 156 speaks "Hello! I am Pico of chat agent. ...". When the user inputs “Tell me a delicious gyoza restaurant” in the input area 154 and transmits this, the origin server 20 obtains it and a new page of the gourmet server 26 is newly specified. The URL of the specified page is sent to the user terminal 12, and the access destination of the user terminal 12 moves to the page.

【0055】図14はそのとき現れる画面150を示
す。ここではグルメエージェント160が新たに登場
し、「りょうかい! グルメエージェントの私におまか
せを。」と発話し、情報検索部77が、たとえば「ぎょ
うざ」をキーワードとしてウェブページを検索する。検
索の間、ユーザが退屈しないよう、「今、探してくるか
らちょっと待ってね」と発話して、検索が実行されてい
ることを伝える。検索が終了すると、結果を表示するた
めのページへジャンプする。
FIG. 14 shows a screen 150 appearing at that time. Here, a gourmet agent 160 newly appears, saying "Ryokai! Leave it to me as a gourmet agent.", And the information search unit 77 searches a web page using, for example, "Gyoza" as a keyword. During the search, the user is told that the search is being carried out by saying, "Please wait a moment now to find it now" so that the user is not bored. When the search is completed, jump to the page for displaying the results.

【0056】図15はそうして移った先のページを示す
画面150である。情報検索部77により取得されたウ
ェブページのタイトル170が表示されている。それぞ
れのタイトル170にはリンクがはられており、当該ペ
ージへアクセス可能に構成されている。この画面で、ユ
ーザが登録ボタン180をクリックすると、お気に入り
登録部80がグルメエージェントをお気に入りキャラク
タとして登録する。
FIG. 15 shows a screen 150 showing the page to which the user has moved. The title 170 of the web page acquired by the information search unit 77 is displayed. Each title 170 has a link, and is configured to be able to access the page. When the user clicks a registration button 180 on this screen, the favorite registration unit 80 registers the gourmet agent as a favorite character.

【0057】図16は、お気に入り登録部80がユーザ
からブックマークの登録を受け付ける画面150を示
す。ユーザがURL記入欄192にお気に入りのウェブ
サイトのURLを記入して登録ボタン190をクリック
すると、お気に入りデータ82にブックマーク情報が登
録される。ブックマーク情報は、そのウェブサイトを閲
覧しているときに、図示しないブックマーク登録ボタン
などにより登録されてもよい。
FIG. 16 shows a screen 150 in which the favorite registration unit 80 accepts bookmark registration from the user. When the user enters the URL of the favorite website in the URL entry field 192 and clicks the registration button 190, the bookmark information is registered in the favorite data 82. The bookmark information may be registered by a bookmark registration button or the like (not shown) while browsing the website.

【0058】図17は、お気に入りキャラクタを登録し
ている場合に表示される画面150を示す。画面にはお
気に入りキャラクタが生活するキャラクタハウス194
が新たに表示されている。ここで、ユーザが「新着情報
は?」と発話すると、このユーザ発話は付加発話集に含
まれるため、検索処理が実行される。
FIG. 17 shows a screen 150 displayed when a favorite character is registered. On the screen is a character house 194 where your favorite character lives.
Is newly displayed. Here, when the user utters “What's new information?”, The user utterance is included in the additional utterance collection, and the search process is executed.

【0059】図18は、グルメエージェント160が検
索結果を提示する画面の例を示す。グルメエージェント
160は、ユーザが登録したウェブサイトのうち2つの
サイトが更新されたことを通知している。このとき、お
気に入りデータ82に記録された最終閲覧日を参照し、
最終閲覧日よりも後に更新されたサイトの情報のみを提
示してもよい。ユーザが関連する発話を行ったときに、
登録ウェブサイトの更新状況を確認し、更新されていれ
ば通知する構成であってもよいし、定期的に更新状況を
監視しておき、更新されたときまたはユーザの発話を契
機としてその旨を通知してもよい。
FIG. 18 shows an example of a screen on which the gourmet agent 160 presents search results. The gourmet agent 160 has notified that two of the websites registered by the user have been updated. At this time, referring to the last browse date recorded in the favorite data 82,
Only the information of the site updated after the last browse date may be presented. When the user makes a relevant utterance,
It may be configured to check the update status of the registered website and notify if it has been updated, or to periodically monitor the update status and notify the user when the update is made or when the user speaks. You may be notified.

【0060】以上、本発明をいくつかの実施の形態をも
とに説明した。これらの実施の形態は例示であり、それ
らの各構成要素や各処理プロセスの組合せにいろいろな
変形例が可能なこと、またそうした変形例も本発明の範
囲にあることは当業者に理解されるところである。そう
した例を挙げる。
The present invention has been described based on several embodiments. These embodiments are exemplifications, and it is understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. By the way. Here are some examples.

【0061】本実施形態では、発話特定ブロックを起点
サーバ20において共用したが、それぞれの専門サーバ
に発話特定ブロックと応答ブロックの双方をおいてもよ
い。この構成では、自身の担当する専門分野について、
ユーザ発話集とエージェント行動集の双方を独自に管理
することができるので、エージェントの管理やメンテナ
ンスが容易である。この場合においても、全ての発話を
処理することができる中核的な役割を担うサーバをおい
てもよい。
In the present embodiment, the utterance specifying block is shared by the origin server 20. However, both the utterance specifying block and the response block may be provided in each specialized server. This configuration allows you to
Since both the user utterance collection and the agent action collection can be independently managed, agent management and maintenance are easy. In this case, a server that plays a core role that can process all utterances may be provided.

【0062】図12等においてユーザの発話はテキスト
ベースで行われたが、これは音声認識で行ってもよい。
その場合、ユーザはより一層専門エージェントと対話し
ている形になる。専門エージェントも音声で発話しても
よい。
In FIG. 12 and the like, the user's utterance is performed on a text basis, but this may be performed by voice recognition.
In that case, the user is in a form that is more interacting with the specialized agent. Specialized agents may also speak by voice.

【0063】不明発話は、ユーザ発話集38において特
定できなかった発話と考えたが、ユーザ発話集38では
特定できても、実際に専門エージェントによる応答が不
完全だったか、または全く実現できなかった場合に、そ
の発話を不明発話とよんでもよい。たとえば、「レシピ
を知りたい」というユーザの発話をもとに特定処理実行
部76が検索をかけたとき、候補が多すぎてユーザの意
に叶わなかったような場合も不明発話として管理者へ通
知し、専門エージェントによる対応を改善させてもよ
い。
The unknown utterance was considered to be an utterance that could not be specified in the user utterance collection 38, but could be specified in the user utterance collection 38, but the response by the specialized agent was actually incomplete or could not be realized at all. In that case, the utterance may be called an unknown utterance. For example, when the specific process execution unit 76 performs a search based on the user's utterance “I want to know the recipe”, if the number of candidates is too large to satisfy the user's wishes, the utterance to the administrator is also unknown. Notifications may be made to improve the response by specialized agents.

【0064】実施の形態では、ユーザによる専門サーバ
へのアクセス状況を考慮して専門エージェントによる発
話を適宜選択した。これ以外にも、ユーザの属性情報を
もとに発話を選択してもよい。例えば、ユーザが女性の
場合、専門エージェントは比較的柔らかい表現を選択し
てもよいし、ユーザが年輩の場合、よりていねいな表現
を選択してもよい。
In the embodiment, the utterance by the specialized agent is appropriately selected in consideration of the access situation of the user to the specialized server. Alternatively, the utterance may be selected based on the attribute information of the user. For example, if the user is a woman, the professional agent may select a relatively soft expression, and if the user is an elderly user, a more precise expression may be selected.

【0065】実施の形態では、ローカルエージェント1
52とおしゃべりエージェント156の画像を一致させ
たが、当然それに限る必要はない。また、ローカルエー
ジェント152をユーザ端末12に実装することはや
め、起動時に現れる「処理開始エージェント」のような
ものを起点サーバ20に実装しておいてもよい。
In the embodiment, the local agent 1
Although the image of the chat agent 52 and the image of the chat agent 156 are matched, it is not necessary to limit to this. Further, the local agent 152 may not be mounted on the user terminal 12, but may be mounted on the origin server 20 such as a “processing start agent” appearing at the time of startup.

【0066】実施の形態では、お気に入り登録部80、
お気に入りデータ82、およびキャラクタ管理部84を
専門サーバにおいたが、これらを起点サーバ20にて一
括管理してもよい。お気に入りデータ82をユーザ端末
12においてもよい。このとき、お気に入りキャラクタ
をローカルエージェントとして機能させてもよい。
In the embodiment, the favorite registration unit 80,
Although the favorite data 82 and the character management unit 84 are placed on the specialized server, they may be collectively managed by the origin server 20. The favorite data 82 may be stored in the user terminal 12. At this time, the favorite character may function as a local agent.

【0067】[0067]

【発明の効果】本発明によれば、ユーザが所望する情報
を迅速に提示することができるシステムが実現する。ま
た、ユーザが親しみやすい情報検索環境が実現する。
According to the present invention, a system capable of promptly presenting information desired by a user is realized. Also, an information search environment that is easy for the user to realize is realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施の形態に係るユーザ支援システムを含む
ネットワークシステムの全体構成図である。
FIG. 1 is an overall configuration diagram of a network system including a user support system according to an embodiment.

【図2】 ユーザ支援システムに含まれる起点サーバの
構成図である。
FIG. 2 is a configuration diagram of an origin server included in the user support system.

【図3】 起点サーバに含まれるインデックスファイル
の構成図である。
FIG. 3 is a configuration diagram of an index file included in an origin server.

【図4】 起点サーバに含まれるユーザ発話集の構成図
である。
FIG. 4 is a configuration diagram of a user utterance collection included in an origin server.

【図5】 起点サーバに含まれるアクセス情報ファイル
の構成図である。
FIG. 5 is a configuration diagram of an access information file included in an origin server.

【図6】 起点サーバに含まれる付加インデックスファ
イルの構成図である。
FIG. 6 is a configuration diagram of an additional index file included in the origin server.

【図7】 起点サーバに含まれる付加発話集の構成図で
ある。
FIG. 7 is a configuration diagram of an additional utterance collection included in the origin server.

【図8】 ユーザ支援システムに含まれるグルメサーバ
の構成図である。
FIG. 8 is a configuration diagram of a gourmet server included in the user support system.

【図9】 お気に入りデータの内部構成図である。FIG. 9 is an internal configuration diagram of favorite data.

【図10】 情報検索部を含むページの構成図である。FIG. 10 is a configuration diagram of a page including an information search unit.

【図11】 ユーザ支援システムを利用するユーザ端末
の構成図である。
FIG. 11 is a configuration diagram of a user terminal using the user support system.

【図12】 ユーザ端末を起動したときに現れるローカ
ルエージェントを示す図である。
FIG. 12 is a diagram illustrating a local agent appearing when a user terminal is started.

【図13】 ユーザが発話したとき現れるおしゃべりエ
ージェントを示す図である。
FIG. 13 is a diagram showing chatting agents that appear when the user speaks.

【図14】 ユーザが餃子店の情報をたずねたとき現れ
るグルメエージェントを示す図である。
FIG. 14 is a diagram illustrating a gourmet agent that appears when a user asks for information on a gyoza shop.

【図15】 グルメエージェントが検索結果をユーザに
提示する様子を示す図である。
FIG. 15 is a diagram illustrating a manner in which a gourmet agent presents search results to a user.

【図16】 お気に入り登録部が登録を受け付ける画面
を示す図である。
FIG. 16 is a diagram illustrating a screen on which a favorite registration unit accepts registration.

【図17】 キャラクタハウスが表示された画面を示す
図である。
FIG. 17 is a diagram showing a screen on which a character house is displayed.

【図18】 グルメエージェントが更新状況を提示する
画面を示す図である。
FIG. 18 is a diagram showing a screen on which a gourmet agent presents an update status.

【符号の説明】[Explanation of symbols]

12 ユーザ端末、 16 ユーザ支援システム、 2
0 起点サーバ、 24 おしゃべりサーバ、 26
グルメサーバ、 32 発話取得部、 34発話検索
部、 36 インデックスファイル、 37 付加イン
デックスファイル、 38 ユーザ発話集、 39 付
加発話集、 42 通知部、 44 アクセス記録部、
62 エージェント行動集、 71 キャラクタ表示
部、 77 情報検索部、 78 自発検索部、 80
お気に入り登録部、 82 お気に入りデータ、 8
4 キャラクタ管理部、 156 おしゃべりエージェ
ント、 160 グルメエージェント。
12 user terminals, 16 user support systems, 2
0 Origin server, 24 Talking server, 26
Gourmet server, 32 utterance acquisition unit, 34 utterance search unit, 36 index file, 37 additional index file, 38 user utterance collection, 39 additional utterance collection, 42 notification unit, 44 access recording unit,
62 Agent action book, 71 Character display section, 77 Information search section, 78 Spontaneous search section, 80
Favorite registration section, 82 Favorite data, 8
4 Character Management Department, 156 Talking Agent, 160 Gourmet Agent.

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 3/16 340 G06F 3/16 340Z (72)発明者 松岡 継文 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 Fターム(参考) 5B075 PP07 PQ02 QS05 5E501 AA02 AB15 AC15 AC33 BA05 CA06 CB15 DA01 EA21 FA14 FA32 FA43 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (Reference) G06F 3/16 340 G06F 3/16 340Z (72) Inventor Tsugufumi Matsuoka 2-5-5 Keihanhondori, Moriguchi-shi, Osaka F-term (reference) in Sanyo Electric Co., Ltd. 5B075 PP07 PQ02 QS05 5E501 AA02 AB15 AC15 AC33 BA05 CA06 CB15 DA01 EA21 FA14 FA32 FA43

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 ユーザの発話を想定して作成された電子
的なユーザ発話集を有し、前記ユーザから発話が入力さ
れたときその内容を特定する発話特定ブロックと、 前記発話に対する応答を目的とするエージェントの行動
を想定して作成された電子的なエージェント行動集を有
し、前記ユーザの発話に前記エージェントによって応答
せしめる応答ブロックと、 前記ユーザが検索を希望する情報の内容を予め取得して
保持する検索内容保持部と、 前記情報を検索する情報検索部と、を含み、 前記発話特定ブロックはさらに、前記情報検索部が前記
検索を開始すべき発話を想定して作成された付加発話集
を有し、前記ユーザからの発話がその付加発話集に含ま
れるとき、その内容を特定し、 前記情報検索部は、前記ユーザが前記付加発話集に含ま
れる発話を行ったことを契機として、前記情報の検索を
開始することを特徴とするユーザ支援装置。
1. An utterance specifying block that has an electronic user utterance collection created assuming a user's utterance and specifies the content of the utterance when the user inputs the utterance, and a response to the utterance. A response block that has an electronic agent action book created assuming the action of the agent to be made and responds to the utterance of the user by the agent, and the content of information that the user wants to search is obtained in advance. A search content holding unit for holding the information, and an information search unit for searching for the information, wherein the utterance identification block further includes an additional utterance created on the assumption that the information search unit starts the search. When the utterance from the user is included in the additional utterance collection, the content is specified, and the information search unit determines that the user included in the additional utterance collection. That utterance as a trigger that was done, the user support apparatus, characterized in that to start the search of the information.
【請求項2】 前記情報検索部は、前記情報の検索を自
発的に開始する自発検索部をさらに含むことを特徴とす
る請求項1に記載のユーザ支援装置。
2. The user support apparatus according to claim 1, wherein the information search unit further includes a spontaneous search unit that spontaneously starts searching for the information.
【請求項3】 前記情報の属する分野ごとに擬人化され
たキャラクタを対応づけ、前記検索の結果をその情報の
属する分野に対応したキャラクタの発話として前記ユー
ザへ示すキャラクタ表示部をさらに含むことを特徴とす
る請求項1または2に記載のユーザ支援装置。
3. A character display unit for associating a personified character with each field to which the information belongs, and further comprising a character display unit for presenting the search result to the user as an utterance of a character corresponding to the field to which the information belongs. The user support device according to claim 1 or 2, wherein:
【請求項4】 前記検索内容保持部は、ウェブサイトの
ネットワークアドレスをブックマーク情報として保持す
るブックマーク保持部を含み、 前記情報検索部は、前記ウェブサイトの更新状況を取得
することを特徴とする請求項3に記載のユーザ支援装
置。
4. The search content holding unit includes a bookmark holding unit that holds a network address of a website as bookmark information, and the information search unit acquires an update status of the website. Item 4. The user support device according to item 3.
【請求項5】 前記キャラクタ表示部は、前記キャラク
タに対応づけられた分野に属する前記ウェブサイトが更
新されていたとき、そのキャラクタの発話として前記更
新状況を前記ユーザへ提示することを特徴とする請求項
4に記載のユーザ支援装置。
5. The method according to claim 1, wherein the character display unit presents the update status to the user as an utterance of the character when the website belonging to the field associated with the character has been updated. The user support device according to claim 4.
【請求項6】 前記キャラクタの属性値を管理し、前記
ユーザの前記キャラクタに対する扱いにより前記属性値
を変化させ、前記属性値に応じて前記キャラクタの行動
を変化させるキャラクタ管理部をさらに含むことを特徴
とする請求項3から5のいずれかに記載のユーザ支援装
置。
6. A character management unit that manages attribute values of the character, changes the attribute value by handling the character by the user, and changes an action of the character according to the attribute value. The user support device according to any one of claims 3 to 5, wherein:
【請求項7】 前記キャラクタ管理部は、前記属性値に
基づいて、前記キャラクタに対応づけられた分野に属す
る前記ウェブサイトの更新状況を取得する頻度を変更す
ることを特徴とする請求項6に記載のユーザ支援装置。
7. The method according to claim 6, wherein the character management unit changes a frequency of acquiring an update status of the website belonging to a field associated with the character based on the attribute value. A user support device according to claim 1.
【請求項8】 請求項1に記載のユーザ支援装置を専門
分野に応じて複数設け、それらを異なるノードとしてネ
ットワークに接続し、 かつそれらのユーザ支援装置の前記ユーザ発話集、前記
付加発話集、および前記エージェント行動集を、それぞ
れ当該装置の専門分野を中心に形成したことを特徴とす
るユーザ支援システム。
8. A user support device according to claim 1, wherein a plurality of the user support devices are provided according to a specialty field, the plurality of user support devices are connected to a network as different nodes, and the user utterance collection, the additional utterance collection, And a user support system in which the agent action book is formed mainly on a special field of the device.
【請求項9】 前記ユーザ支援装置は、それぞれ前記応
答ブロックを自ノードに保持する一方、前記発話特定ブ
ロックを前記ネットワークのひとつのノードにおいて共
用することを特徴とする請求項8に記載のユーザ支援シ
ステム。
9. The user support apparatus according to claim 8, wherein the user support apparatus holds the response block in its own node while sharing the utterance identification block in one node of the network. system.
JP2000369116A 2000-09-06 2000-12-04 Device and system for supporting user Pending JP2002169818A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000369116A JP2002169818A (en) 2000-12-04 2000-12-04 Device and system for supporting user
US09/822,798 US20020052913A1 (en) 2000-09-06 2001-03-30 User support apparatus and system using agents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000369116A JP2002169818A (en) 2000-12-04 2000-12-04 Device and system for supporting user

Publications (1)

Publication Number Publication Date
JP2002169818A true JP2002169818A (en) 2002-06-14

Family

ID=18839204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000369116A Pending JP2002169818A (en) 2000-09-06 2000-12-04 Device and system for supporting user

Country Status (1)

Country Link
JP (1) JP2002169818A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268428A (en) * 2005-03-24 2006-10-05 Kenwood Corp Information presenting device, information presentation method and information-presenting program
JP2010073192A (en) * 2008-08-20 2010-04-02 Universal Entertainment Corp Conversation scenario editing device, user terminal device, and automatic answering system
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
JP2015076038A (en) * 2013-10-11 2015-04-20 Necパーソナルコンピュータ株式会社 Information processing method, information processing apparatus, and program
JP2019046019A (en) * 2017-08-31 2019-03-22 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP2020009030A (en) * 2018-07-04 2020-01-16 ソフトバンク株式会社 Information processing system, information processing system control method, and information processing system control program
JP2023082970A (en) * 2021-12-03 2023-06-15 株式会社ビデオリサーチ expert answer system
JP7461428B2 (en) 2016-11-18 2024-04-03 グーグル エルエルシー Autonomous provision of retrospective search results with conversational assistant context

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4508917B2 (en) * 2005-03-24 2010-07-21 株式会社ケンウッド Information presenting apparatus, information presenting method, and information presenting program
JP2006268428A (en) * 2005-03-24 2006-10-05 Kenwood Corp Information presenting device, information presentation method and information-presenting program
JP2010073192A (en) * 2008-08-20 2010-04-02 Universal Entertainment Corp Conversation scenario editing device, user terminal device, and automatic answering system
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
JP2015076038A (en) * 2013-10-11 2015-04-20 Necパーソナルコンピュータ株式会社 Information processing method, information processing apparatus, and program
JP7461428B2 (en) 2016-11-18 2024-04-03 グーグル エルエルシー Autonomous provision of retrospective search results with conversational assistant context
US11971935B2 (en) 2016-11-18 2024-04-30 Google Llc Autonomously providing search results post-facto, including in assistant context
JP2019046019A (en) * 2017-08-31 2019-03-22 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP7080609B2 (en) 2017-08-31 2022-06-06 ヤフー株式会社 Information processing equipment, information processing methods, and information processing programs
JP2020009030A (en) * 2018-07-04 2020-01-16 ソフトバンク株式会社 Information processing system, information processing system control method, and information processing system control program
JP7352761B2 (en) 2021-12-03 2023-09-28 株式会社ビデオリサーチ Expert answer prediction system
JP2023114460A (en) * 2021-12-03 2023-08-17 株式会社ビデオリサーチ Expert answer prediction system
JP2023082970A (en) * 2021-12-03 2023-06-15 株式会社ビデオリサーチ expert answer system

Similar Documents

Publication Publication Date Title
KR100813333B1 (en) Search engine supplemented with url's that provide access to the search results from predefined search queries
JP3224507B2 (en) Information retrieval apparatus and information retrieval system using the same
JP2002132804A (en) User support system
US9836544B2 (en) Methods and systems for prioritizing a crawl
US6922670B2 (en) User support apparatus and system using agents
US8918401B1 (en) Systems and methods for providing searchable prior history
US7353246B1 (en) System and method for enabling information associations
US8972856B2 (en) Document modification by a client-side application
JP5133984B2 (en) Input candidate providing device, input candidate providing system, input candidate providing method, and input candidate providing program
US20090006338A1 (en) User created mobile content
JP2002175316A (en) Device and system for assisting user
Xie et al. Efficient browsing of web search results on mobile devices based on block importance model
JP2001510607A (en) Intelligent network browser using indexing method based on proliferation concept
JP2010508579A (en) Personalized search using macros
KR20120120459A (en) Search system presenting active abstracts including linked terms
RU2633180C2 (en) System and method for managing browser application, persistent computer-readable medium and electronic device
JP4430598B2 (en) Information sharing system and information sharing method
WO2016162843A1 (en) Processing a search query and retrieving targeted records from a networked database system
JP4939637B2 (en) Information providing apparatus, information providing method, program, and information recording medium
US7853606B1 (en) Alternate methods of displaying search results
JP4955841B2 (en) Information providing apparatus, information providing method, program, and information recording medium
JP2002169818A (en) Device and system for supporting user
GB2363485A (en) Communicating information over the internet
Ali et al. Internet
US20110072045A1 (en) Creating Vertical Search Engines for Individual Search Queries