JP2002132803A - User support system - Google Patents

User support system

Info

Publication number
JP2002132803A
JP2002132803A JP2000323559A JP2000323559A JP2002132803A JP 2002132803 A JP2002132803 A JP 2002132803A JP 2000323559 A JP2000323559 A JP 2000323559A JP 2000323559 A JP2000323559 A JP 2000323559A JP 2002132803 A JP2002132803 A JP 2002132803A
Authority
JP
Japan
Prior art keywords
user
utterance
agent
collection
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000323559A
Other languages
Japanese (ja)
Inventor
Akihiro Yamada
晃弘 山田
Atsushi Maeda
篤志 前田
Tsugufumi Matsuoka
継文 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2000323559A priority Critical patent/JP2002132803A/en
Priority to US09/823,282 priority patent/US6922670B2/en
Publication of JP2002132803A publication Critical patent/JP2002132803A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve the problem that it is difficult to design an agent which accurately interprets various words that a user speaks and other requests and answer in a short time. SOLUTION: A collection of words that the user is assumed to speak is placed on an origin server 20, where a user's spoken word is specified. According to the result, a user terminal 12 is connected to an expert server where an expert agent which should answer to the user is present. A chat agent as the expert agent is installed on a chat server 24 and has an agent action collection for chatting with the user. Decentralized processing by the separation of the user's spoken word collection and agent action collection is carried out and index retrieval is carried out to specify the user's spoken words.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、ユーザ支援技術
に関する。この発話はとくに、エージェントを利用して
ユーザの操作、検索その他の処理を支援するシステムに
関する。
[0001] The present invention relates to user support technology. This utterance particularly relates to a system that supports user operations, search, and other processes using an agent.

【0002】[0002]

【従来の技術】インターネットや携帯電話の普及が牽引
となり、より多くの人がコンピュータや各種情報端末に
触れるようになった。ここ数年、パーソナルコンピュー
タをはじめとする機器の販売台数は大きく伸びており、
いわゆる初心者が激増している。CPUパワーやメモリ
容量の飛躍的な向上により、そうしたユーザでも比較的
容易に機器操作ができるためのGUI(グラフィカル・
ユーザ・インタフェイス)も整備されつつある。初心者
にとって、機器のもつ高度な機能を使いこなし、また、
必要な情報へ正しくアクセスすることは、GUIその他
の助けがなければ相当困難である。
2. Description of the Related Art With the spread of the Internet and mobile phones, more and more people have come into contact with computers and various information terminals. Over the past few years, the sales volume of personal computers and other equipment has grown significantly,
So-called beginners are increasing rapidly. With a dramatic improvement in CPU power and memory capacity, a GUI (graphical graphics
The user interface is also being improved. For beginners, make full use of the advanced functions of the device,
Accessing the required information correctly is difficult without a GUI or other help.

【0003】そうしたユーザ支援技術のひとつに、エー
ジェントの利用が知られている。エージェントはおもに
擬人化されたキャラクタであり、コンピュータ画面に登
場し、ユーザの発話を取得し、これをコンピュータ内へ
伝える。コンピュータにおける処理の結果は、エージェ
ントの発話としてユーザへ示される。エージェントとい
う存在により、ユーザはコンピュータという機械を相手
にする堅苦しさから解放され、コンピュータをより身近
な存在として感じることができる。
As one of such user support technologies, use of an agent is known. The agent is mainly a personified character, appears on the computer screen, acquires the utterance of the user, and transmits this to the computer. The result of the processing in the computer is shown to the user as an utterance of the agent. The presence of the agent frees the user from being stubborn against the machine of the computer, and makes the computer feel more familiar.

【0004】[0004]

【発明が解決しようとする課題】一方、エージェントを
設計する側としては、その適切な運用と洗練は非常に骨
の折れる作業である。ユーザは生身の人間であって、そ
の発話の内容はほぼ無限といってもよい。そうした発話
をすべて想定して対処することは事実上不可能である
が、ユーザはエージェントがどんな発話も的確に把握
し、瞬時に応答してくれることを期待する。仮に、ユー
ザの発話を相当数想定しても、実際にユーザが発したこ
とばをリアルタイムに近い反応時間で検索し、特定する
ことは非常に難しい。また、発話の想定数が大きくなれ
ばなるほど、エージェントを制御するサーバの扱うべき
データ量は多くなり、その負荷は増える。
On the other hand, on the side of designing an agent, its proper operation and refinement are extremely laborious. The user is a living person, and the content of the utterance may be almost infinite. It is virtually impossible to handle all such utterances, but the user expects the agent to know exactly what utterances and respond immediately. Even if a considerable number of user utterances are assumed, it is very difficult to search for and specify words actually spoken by the user with a reaction time close to real time. Also, as the expected number of utterances increases, the amount of data to be handled by the server that controls the agent increases, and the load increases.

【0005】本発明はこうした状況に鑑みてなされたも
ので、その目的は、ユーザの多岐にわたる発話その他の
要求に対し、できるかぎり短い時間で応答するエージェ
ントを実現する技術の提供にある。本発明の別の目的
は、エージェントによる応答の精度を継続的に、かつ効
率的に高めていくことの可能な技術の提供にある。
The present invention has been made in view of such a situation, and an object of the present invention is to provide a technique for realizing an agent that responds to a user's various utterances and other requests in the shortest possible time. Another object of the present invention is to provide a technique capable of continuously and efficiently increasing the accuracy of a response by an agent.

【0006】[0006]

【課題を解決するための手段】本発明のユーザ支援装置
は、ユーザの発話を想定して作成された電子的なユーザ
発話集を有し、前記ユーザから発話が入力されたときそ
の内容を特定する第1のブロックと、前記発明に対する
応答を目的とするエージェントの行動を想定して作成さ
れた電子的なエージェント行動集を有し、前記ユーザの
発話に前記エージェントによって応答せしめる第2のブ
ロックとを含む。また、前記第1および第2のブロック
は別個に構成され、前記ユーザ発話集と前記エージェン
ト行動集が分離された状態で保持される。この構成によ
れば、ユーザ発話集とエージェント行動集に対して別々
にアクセスすることが容易となるため、ユーザの発話を
特定する処理と、エージェントによる応答を決定する処
理を並列して行うことができる。「エージェント」は前
述のごとく、擬人化されたキャラクタのように可視的で
あるとは限らず、システムのバックエンド等、見えない
ところでユーザを支援するプログラムその他の処理機能
を指してもよい。エージェントの「行動」は、エージェ
ントの発話、画像、動作その他、支援のための処理に関
連する任意の処理要素や処理動作を指す。
A user support apparatus according to the present invention has an electronic user utterance collection created on the assumption of a user's utterance, and specifies the contents of the utterance when the utterance is input from the user. And a second block having an electronic agent action book created assuming the action of the agent for the purpose of responding to the invention, and causing the agent to respond to the utterance of the user. including. Further, the first and second blocks are configured separately, and the user utterance collection and the agent action collection are held in a separated state. According to this configuration, it is easy to separately access the user utterance collection and the agent action collection, so that the process of specifying the user's utterance and the process of determining the response by the agent can be performed in parallel. it can. As described above, the “agent” is not always visible as an anthropomorphic character, and may refer to a program or other processing function that assists a user in an invisible place, such as a system back end. The “action” of the agent indicates an utterance, an image, an action, or any other processing element or processing operation related to the processing for support.

【0007】このユーザ支援システムは、前記第2のブ
ロックを複数含み、それらのブロックのそれぞれが前記
ユーザに対して専門のサービスを提供してもよい。例え
ば、第1のブロックと複数の第2のブロックの一部、ま
たはすべてを異なるネットワークノードとして構成し、
ユーザとそのネットワークを介して通信してもよい。そ
の場合、ユーザがクライアント、第1および第2のブロ
ックに当たる機能がサーバとなり、サーバクライアント
システムが構築される。
[0007] The user support system may include a plurality of the second blocks, and each of the blocks may provide a specialized service to the user. For example, a part or all of the first block and the plurality of second blocks are configured as different network nodes,
It may communicate with the user via the network. In this case, the user corresponds to the client, and the function corresponding to the first and second blocks is the server, and a server-client system is constructed.

【0008】第1のブロックはユーザの発話を特定する
エントランスまたはポータル的なサーバであり、そこで
特定された発話の内容にしたがい、複数の第2のブロッ
クから適切なものが選定されてもよい。第2のブロック
はユーザに対するサービスの内容ごとに設けられてもよ
く、たとえばニュース、占い、旅行、料理、ビジネス、
健康などのトピックごとに設けられてもよい。この場
合、第2のブロックのそれぞれが明確なテーマをもって
いるため、エージェントの洗練が比較的容易になる。ま
た、トピックごとに異なるノードで処理ができるため、
分散処理による負荷の軽減が図られる。
The first block is an entrance or portal server for specifying the utterance of the user, and an appropriate one may be selected from a plurality of second blocks according to the content of the utterance specified there. The second block may be provided for each content of service to the user, for example, news, fortune-telling, travel, cooking, business,
It may be provided for each topic such as health. In this case, the refinement of the agent is relatively easy because each of the second blocks has a clear theme. Also, since processing can be performed on different nodes for each topic,
The load can be reduced by the distributed processing.

【0009】前記第1のブロックは、前記ユーザの発話
を前記ユーザ発話集の中で検索する発話検索部と、前記
ユーザの発話が前記ユーザ発話集の中に見いだされなか
ったとき、その旨をシステム管理者(以下、単に管理者
という)へ通知する通知部とを含んでもよい。その場
合、管理者がユーザに別途対応したり、ユーザ発話集お
よびエージェント行動集を改訂したりすることができ
る。
The first block includes an utterance search unit for searching for the utterance of the user in the user utterance collection, and when the user's utterance is not found in the user utterance collection, A notification unit for notifying a system administrator (hereinafter, simply referred to as an administrator). In that case, the administrator can separately deal with the user or revise the user utterance collection and the agent action collection.

【0010】本システムはさらに、前記ユーザによる本
システムへのアクセス記録を取得する記録部を含んでも
よい。この場合、前記第2のブロックは、前記応答のた
めの前記エージェントの発話を前記ユーザによるアクセ
スの状況にしたがって複数の候補から選択してもよい。
例えば、あるユーザがエージェントAに対して「こんち
には」といったとき、そのユーザによる初回の訪問であ
れば、エージェントAは「こんにちは」と答えればよい
が、2回目であれば「やあ、また会いましたね」などと
応答してもよい。この場合、ユーザのアクセス履歴をも
とに最適と思われるものが選択され、より自然な、また
は、より親しみやすい会話が実現する。
[0010] The system may further include a recording unit for acquiring a record of access to the system by the user. In this case, the second block may select an utterance of the agent for the response from a plurality of candidates according to a situation of access by the user.
For example, when a user such as "the Continent" for the agent A, if the initial visits by the user, agent A may If you answer "Hello", but if a second time, "Hey, meet again I'm sorry. " In this case, the most suitable one is selected based on the access history of the user, and a more natural or more friendly conversation is realized.

【0011】前記第1のブロックは、前記ユーザ発話集
の内容に対するインデックスを保持するインデックス格
納部を有してもよい。この場合、前記検索部は、前記ユ
ーザの発話が入力されたとき、前記インデックス格納部
に対して初期的な検索、すなわち、絞込のための検索等
をかけることができ、検索の高速化が実現する。
[0011] The first block may include an index storage unit for holding an index for the content of the user utterance collection. In this case, when the utterance of the user is input, the search unit can perform an initial search, that is, a search for narrowing down, on the index storage unit, and the search can be speeded up. Realize.

【0012】なお、以上の構成要素の任意の組合せ、本
発明の表現を方法、装置、システム、記録媒体などの間
で変換したものもまた、本発明の態様として有効であ
る。
It is to be noted that any combination of the above-described components and any conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, and the like are also effective as embodiments of the present invention.

【0013】[0013]

【発明の実施の形態】図1は、実施の形態に係るユーザ
支援システム16を含むネットワークシステム10の全
体構成を示す。ここでは、ユーザ端末12とユーザ支援
システム16がインターネット14を介して接続されて
いる。ユーザ端末12はPC(パーソナルコンピュー
タ)、PDA、インターネット14へ接続可能な携帯電
話、その他任意のハードウエアである。
FIG. 1 shows an overall configuration of a network system 10 including a user support system 16 according to an embodiment. Here, the user terminal 12 and the user support system 16 are connected via the Internet 14. The user terminal 12 is a PC (personal computer), a PDA, a mobile phone connectable to the Internet 14, or any other hardware.

【0014】ユーザ支援システム16は、第1の処理ブ
ロックである起点サーバ20と、それぞれ第2の処理ブ
ロックであるおしゃべりサーバ24、献立サーバ26を
有し、これらがそれぞれインターネット14に接続され
ている。したがって、起点サーバ20、おしゃべりサー
バ24、献立サーバ26は異なるネットワークノードと
して構成されており、ユーザの発話とエージェントの発
話の処理を分散することができる。また、エージェント
もその担当分野に応じて別ノードにすることができ、エ
ージェント単位のメンテナンスが容易になる。おしゃべ
りサーバ24、献立サーバ26という名称もその担当分
野または専門分野に応じて与えられている。以下、おし
ゃべりサーバ24、献立サーバ26等を総括的に「専門
サーバ」とよび、それらのサーバに置かれたエージェン
トを「専門エージェント」とよぶ。ユーザ支援システム
16は一体に構成され、たとえばひとつのポータルサイ
ト内に構成されてもよいが、以下の説明では別ノードと
して構成され、起点サーバ20がユーザ端末12に対し
てポータルサーバとして振る舞う例を考える。
The user support system 16 has a starting server 20 as a first processing block, a chat server 24 and a menu server 26 as second processing blocks, respectively, which are connected to the Internet 14 respectively. . Therefore, the origin server 20, the talking server 24, and the menu server 26 are configured as different network nodes, and the processing of the user's utterance and the agent's utterance can be distributed. In addition, the agent can be another node according to the field in which the agent is in charge, thereby facilitating maintenance for each agent. The names of the chat server 24 and the menu server 26 are also given according to their field of specialization or specialty. Hereinafter, the chat server 24, the menu server 26, and the like are collectively referred to as “specialized servers”, and the agents placed on those servers are referred to as “specialized agents”. The user support system 16 may be integrally configured, for example, may be configured in one portal site. However, in the following description, an example in which the user support system 16 is configured as a separate node and the origin server 20 acts as a portal server for the user terminal 12 will be described. Think.

【0015】詳細は後に述べるが、図1における処理の
概要は以下のとおりである。ユーザがユーザ端末12を
起動すると、ユーザ端末12内部に実装されたローカル
エージェントが現れる。このローカルエージェントはユ
ーザの最初の発話(以下この発話を「処理開始発話」と
いう)を待つ。処理開始発話はインターネット14を経
由して起点サーバ20へ送信される。このとき、ユーザ
端末12はWWWブラウザによって起点サーバ20のペ
ージを表示している。
Although details will be described later, the outline of the processing in FIG. 1 is as follows. When the user activates the user terminal 12, a local agent mounted inside the user terminal 12 appears. The local agent waits for the user's first utterance (hereinafter, this utterance is referred to as “processing start utterance”). The processing start utterance is transmitted to the origin server 20 via the Internet 14. At this time, the user terminal 12 is displaying the page of the origin server 20 by the WWW browser.

【0016】起点サーバ20には、ユーザ発話集、すな
わちユーザがなすであろう発話の想定集が実装されてお
り、処理開始発話がそれに照合され、発話内容が特定さ
れる。その結果、処理開始発話に応答すべき専門エージ
ェントが特定され、その専門サーバのURL(同図中U
RLa、URLbと表記)がユーザ端末12のブラウザ
へ送られる。URLを取得したユーザ端末12の画面に
はその専門サーバのページが表示され、専門エージェン
トが現れる。専門サーバはそれぞれ専門エージェントの
ためのエージェント行動集をもっており、処理開始発話
およびそれ以降のユーザの発話(以下「通常発話」とい
う)に応答する。以下、エージェントの行動として主に
発話を例にとるが、それに限られるものではなく、エー
ジェントの身振りその他の動作、画像上の色、テクスチ
ャ等の変化、エージェントによる検索動作その他のプロ
グラム処理などでユーザに対応してもよい。
A collection of user utterances, that is, a collection of supposed utterances that the user will make, is mounted on the origin server 20, and the processing start utterance is collated with the utterance and the utterance content is specified. As a result, a specialized agent to respond to the processing start utterance is specified, and the URL of the specialized server (U in FIG.
RLa, URLb) are sent to the browser of the user terminal 12. The page of the specialized server is displayed on the screen of the user terminal 12 that has acquired the URL, and the specialized agent appears. Each specialized server has a collection of agent actions for specialized agents, and responds to the processing start utterance and subsequent user utterances (hereinafter referred to as “normal utterances”). In the following, utterance is mainly used as an example of the agent's action, but the present invention is not limited to this, and the user may use gestures and other actions, changes in colors and textures on images, search operations by the agent, and other program processing. May be supported.

【0017】ユーザがその専門エージェントに新たな発
話、すなわち通常発話をしたとき、これが取得され、起
点サーバ20(同図中URLsと表記)へ送られる。起
点サーバ20はその発話に応答すべき専門エージェント
を再度特定し、その専門サーバのURLを再度ユーザ端
末12へ送信する。以下同様に、 1.起点サーバ20によるユーザ発話の特定 2.特定された発話を担当する専門サーバの特定 3.その専門サーバに置かれた専門エージェントによる
ユーザへの応答 4.その専門エージェントによるユーザの通常発話の要
求または促進 という一連の処理が繰り返される。処理がつねに一旦起
点サーバ20へ戻り、そこから新たに開始されるため、
起点サーバ20の名がある。
When the user makes a new utterance to the specialized agent, that is, a normal utterance, the utterance is acquired and sent to the origin server 20 (indicated as URLs in the figure). The origin server 20 again specifies the specialized agent that should respond to the utterance, and transmits the URL of the specialized server to the user terminal 12 again. Hereinafter, similarly, 1. 1. Identification of user utterance by origin server 20 2. Identification of a specialized server responsible for the identified utterance 3. Response to the user by the specialized agent placed on the specialized server. A series of processing of requesting or promoting the user's normal utterance by the specialized agent is repeated. Since the processing always returns to the origin server 20 and is newly started from there,
There is a name of the origin server 20.

【0018】図2は起点サーバ20の内部構成を示す。
同図中、「H」は発話データ、「I」は発話のインデッ
クス検索、「F」は特定されたユーザ発話に応答すべき
専門サーバのページのURLを保持するファイルの名
称、「X」は特定できなかった発話(以下、不明発話と
もいう)をそれぞれ示す。図2の構成は、ハードウエア
的には、任意のコンピュータのCPU、メモリ、その他
のLSIで実現でき、ソフトウエア的にはメモリのロー
ドされたプログラムなどによって実現されるが、ここで
はそれらの連携によって実現される機能ブロックを描い
ている。したがって、これらの機能ブロックがハードウ
エアのみ、ソフトウエアのみ、またはそれらの組合せに
よっていろいろな形で実現できることは、当業者には理
解されるところである。以下、同様の配慮は本明細書全
体にわたって有効とする。
FIG. 2 shows the internal configuration of the origin server 20.
In the figure, "H" is utterance data, "I" is an index search of utterance, "F" is the name of a file holding the URL of the page of the specialized server to respond to the specified user utterance, and "X" is Each utterance that could not be identified (hereinafter also referred to as an unknown utterance) is shown. 2 can be realized by a CPU, a memory, or other LSI of an arbitrary computer in terms of hardware, and is realized by a program loaded in the memory in terms of software. Draws functional blocks realized by. Therefore, it will be understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. Hereinafter, similar considerations are valid throughout the present specification.

【0019】通信部30はインターネット14を介して
専門サーバおよびユーザ端末12とやりとりをする。発
話取得部32はユーザ端末12からユーザの発話を取得
し、これを発話検索部34へ送る。発話検索部34はそ
の発話の第一文字をインデックスファイル36へ照合
し、まずインデックスによる絞り込みをかけ、その後、
発話の内容を特定する。この際、ユーザの発話全体につ
いてフレーズ検索をかける。フレーズ検索とは、単語の
順番まで含めて一致するものを見いだす処理である。フ
レーズ検索で該当するものが見つからないときは、後述
のように、発話を形態素に分け、キーワードまたは単語
によって近いものを検索する。
The communication unit 30 communicates with the specialized server and the user terminal 12 via the Internet 14. The utterance acquisition unit 32 acquires the utterance of the user from the user terminal 12 and sends the utterance to the utterance search unit 34. The utterance search unit 34 checks the first character of the utterance against the index file 36, first narrows down by index, and then
Identify the content of the utterance. At this time, a phrase search is performed for the entire utterance of the user. The phrase search is a process of finding a match including the order of words. If no corresponding phrase is found by the phrase search, as described later, the utterance is divided into morphemes, and a keyword or word is searched for.

【0020】インデックスファイル36は、ユーザ発話
集38に格納されたユーザの想定発話を50音順に並べ
て生成され、前記の第一文字をこのインデックスファイ
ル36に照合することにより、たとえユーザ発話集38
が膨大であっても、非常に高速にユーザの発話を検索す
ることができる。後述するごとく、この実施の形態では
ユーザ発話集の充実化が容易であるため、短期間でユー
ザ発話集38の容量が非常に大きくなることが予想さ
れ、インデックス検索による高速化のメリットは大き
い。
The index file 36 is generated by arranging the supposed utterances of the user stored in the user utterance collection 38 in the order of the Japanese syllabary.
Even if is large, the user's utterance can be searched very quickly. As will be described later, since the user utterance collection can be easily enhanced in this embodiment, the capacity of the user utterance collection 38 is expected to be very large in a short period of time, and the merit of speeding up by index search is great.

【0021】インデックスファイル36で発話が特定さ
れると、その発話に応答すべき専門サーバのURL等の
情報が記述されたファイルがインデックスファイル36
内で特定され、ユーザ発話集38に内蔵されたそのファ
イル本体がオープンされ、前記URLが判明する。ユー
ザ発話集38には、ひとつの発話に対してひとつのファ
イルが形成されている。判明したURLは通信部30を
経てユーザ端末12のブラウザに設定され、ユーザ端末
12のアクセス先がその専門サーバになる。厳密には、
そのURLは専門サーバのホームページを指しているの
ではなく、ユーザの発話に応答するための個別のページ
を指しており、ひとつの発話に対してひとつ、または場
合により複数のページが割り当てられている。複数の場
合は後述する。
When an utterance is specified in the index file 36, a file in which information such as a URL of a specialized server to respond to the utterance is described is stored in the index file 36.
Then, the file body contained in the user utterance collection 38 is opened, and the URL is found. In the user utterance collection 38, one file is formed for one utterance. The found URL is set in the browser of the user terminal 12 via the communication unit 30, and the access destination of the user terminal 12 is the specialized server. Strictly speaking,
The URL does not refer to the home page of the specialized server, but to an individual page for responding to the user's utterance, and one or more pages are assigned to each utterance. . Multiple cases will be described later.

【0022】ユーザの発話と完全に一致するものがユー
ザ発話集38に格納されているときは問題がないが、と
くにユーザ発話集38の充実化の過程では、そうならな
いことも多い。その場合、発話検索部34は既知の方法
でユーザの発話を形態素に分解し、それらのうち名詞の
論理積をとって再検索をかけるなどの処理により、最も
確からしい発話をユーザ発話集38から見いだす。再検
索の対象となった発話、および、そうした再検索を通し
ても判明しなかった発話は、ともに不明発話として不明
発話ファイル40に記録され、これが通知部42を通じ
て起点サーバ20の管理者へ電子メール等により通報さ
れる。管理者はその発話およびそれに応答すべき専門サ
ーバのページのURLをユーザ発話集38へ新規登録
し、その発話のインデックスをインデックスファイル3
6へ登録し、かつそのページにおける専門エージェント
の発話を含む処理を設計する。このメンテナンスによれ
ば、なんら困難なプロセスなく、不明発話をそのままユ
ーザ発話集38に追加していくことができるため、ユー
ザ発話集38の充実は非常に容易である。
There is no problem when a message that completely matches the user's utterance is stored in the user's utterance collection 38, but this does not often occur particularly in the process of enriching the user's utterance collection 38. In this case, the utterance search unit 34 decomposes the utterance of the user into morphemes by a known method, and performs a search again by taking the logical product of the nouns among them, thereby obtaining the most probable utterance from the user utterance collection 38. Find out. The utterance targeted for the re-search and the utterance not found through the re-search are both recorded as unknown utterances in the unknown utterance file 40, and this is sent to the administrator of the origin server 20 via the notification unit 42 by e-mail or the like. Notified by The administrator newly registers the utterance and the URL of the page of the specialized server to be responded to in the user utterance collection 38, and stores the index of the utterance in the index file 3.
6 and a process including the utterance of the specialized agent on the page is designed. According to this maintenance, the unknown utterances can be added to the user utterance collection 38 without any difficult process, so that the user utterance collection 38 is very easily enriched.

【0023】アクセス記録部44は、専門サーバに対す
るアクセスの状況をユーザごとにアクセス情報ファイル
46へ記録する。これにより、同じユーザ発話に対して
異なる応答をすることが可能になる。例えば、おしゃべ
りサーバ24を初めて訪問したユーザが「こんにちは」
といったとき、おしゃべりサーバ24の専門エージェン
ト(以下、おしゃべりエージェントともいう)は「はじ
めまして」という。一方、そのユーザによるおしゃべり
サーバ24への再訪に際し、おしゃべりエージェントは
「こんにちは。あれからどうですか。」などということ
ができ、きめの細かい対応が実現する。アクセス記録部
44はアクセスの状況を発話検索部34へ伝える。発話
検索部34はユーザの発話に対応するための専門サーバ
のページが、いまの例のようにユーザ発話集38におい
て複数記述されているとき、その中からアクセスの状況
をもとにふさわしいものを選択し、そのURLをユーザ
端末12のブラウザへ設定する。
The access recording unit 44 records the status of access to the specialized server in the access information file 46 for each user. This makes it possible to make different responses to the same user utterance. For example, a user for the first time visited the chat server 24 is "Hello"
In such a case, the specialized agent of the chat server 24 (hereinafter, also referred to as the chat agent) is referred to as "Hello!" On the other hand, when revisit to the chat server 24 by the user, chat agent can be referred to as "Hello. What about from there.", Fine-grained corresponding to realize. The access recording unit 44 informs the utterance search unit 34 of the access status. When a plurality of pages of the specialized server for responding to the user's utterance are described in the user utterance collection 38 as in the present example, the utterance search unit 34 finds an appropriate one based on the access situation. Select and set the URL in the browser of the user terminal 12.

【0024】図3はインデックスファイル36の内部構
成、図4はユーザ発話集38の内部構成をそれぞれ示
す。インデックスファイル36は50音欄100、ユー
ザの発話欄102、ファイル名欄104を有する。ユー
ザの発話は50音順に整列され、第1文字が「あ」であ
れば、50音欄100の「あ」の下に分類され、以下同
様に第1文字をもとに分類されている。
FIG. 3 shows the internal structure of the index file 36, and FIG. 4 shows the internal structure of the user utterance collection 38. The index file 36 has a Japanese syllabary column 100, a user utterance column 102, and a file name column 104. The utterances of the user are arranged in the order of the Japanese syllabary. If the first character is "A", the utterances are classified under "A" in the Japanese syllabary column 100, and so on.

【0025】ユーザ発話集38はファイル名欄104、
ユーザの発話欄102、応答すべき専門サーバのページ
欄120を有する。例えば、ユーザ発話「やあ」に応答
する専門サーバのページは「URLa43」であり、
「やあ」という発話と「URLa43」の組がファイル
f044を構成する。ユーザの発話は専門サーバごとに
まとめられ、例えばおしゃべりサーバ24が担当すべき
ユーザ発話110と、献立サーバ26が担当すべきユー
ザ発話112がそれぞれひとまとまりで記述されてい
る。前者は一般的な挨拶など、後者は料理やレシピなど
に関する。インデックスファイル36とユーザ発話集3
8はファイル名によってリンクされ、例えば「こんにち
は」という発話には、インデックスファイル36におい
てファイルf044が記述され、これがユーザ発話集3
8のファイルf044を指している。
The user utterance collection 38 includes a file name column 104,
It has a user's utterance field 102 and a page field 120 for a specialized server to respond to. For example, the page of the specialized server responding to the user utterance “Haya” is “URLa43”,
The combination of the utterance “Haya” and “URLa43” constitutes the file f044. The user's utterances are grouped for each specialized server, and, for example, a user utterance 110 to be in charge of the talking server 24 and a user utterance 112 to be in charge of the menu server 26 are described as a group. The former relates to general greetings, and the latter relates to cooking and recipes. Index file 36 and user utterance collection 3
8 are linked by the file name, for example, in the utterance of "Hello", in the index file 36 file f044 is described, this is the user utterance collection 3
8 file f044.

【0026】図4のごとく、「こんにちは」に対する応
答のページはURLa1とURLa2のふたつがある。
ここでは、おしゃべりサーバ24にはじめて来たユーザ
にはURLa1、再訪の場合はURLa2がそれぞれ送
信されるとする。
[0026] As shown in FIG. 4, page of the response to the "Hello" There are two URLa1 and URLa2.
Here, it is assumed that URLLa1 is transmitted to the user who first comes to the chatting server 24, and URLa2 is transmitted in the case of returning.

【0027】図5はアクセス情報ファイル46の内部記
述例である。同図では、あるユーザ「user1」は過
去に「おしゃべり」「献立」「オークション」という専
門サーバを訪れている。一方、ユーザ「user2」は
「旅行」「PC」という専門サーバを訪れている。した
がって、user2がおしゃべりサーバ24を訪れる
と、前述のごとく、おしゃべりエージェントから初回訪
問者用の発話がなされ、user1がおしゃべりサーバ
24を訪れると再訪者向けの挨拶が発話される。
FIG. 5 shows an example of an internal description of the access information file 46. In the figure, a user “user1” has visited specialized servers “talking”, “menu”, and “auction” in the past. On the other hand, the user “user2” visits a specialized server “travel” and “PC”. Therefore, when user2 visits the chat server 24, as described above, the chat agent utters a speech for the first visitor, and when user1 visits the chat server 24, a greeting for the return visitor is uttered.

【0028】図6は専門サーバの例として、おしゃべり
サーバ24の内部構成を示す。通信部60はインターネ
ット14を介してユーザ端末12、起点サーバ20等と
交信する。起点サーバ20の発話検索部34によって特
定されたURL、すなわち図4のごとくユーザ発話が
「こんにちは」の場合におけるURLa1またはURL
a2は、通信部60を経てエージェント行動集62に与
えられる。エージェント行動集62は、専門エージェン
トの発話に加えて、その画像や動作を記述するエージェ
ントデータ72を含む。また、発話検索部34によって
特定されたURLと一対一でページが設けられ、具体的
には、URLa1のページ64、URLa2のページ6
6、URLanのページ68のように構成される。ペー
ジはそれぞれいわゆるWebページであり、おしゃべり
エージェントによる発話だけでなく、その画像や動作の
表示、さらにはそのエージェントがなすべきサービス、
たとえば情報の検索なども実行する。すなわち、ユーザ
の発話ひとつに対してWebページをひとつ設け、対応
の柔軟性と充実を図る趣旨である。
FIG. 6 shows an internal configuration of the talking server 24 as an example of a specialized server. The communication unit 60 communicates with the user terminal 12, the origin server 20, and the like via the Internet 14. URLa1 or URL when the URL specified by the utterance search unit 34 of the originating server 20, that is, the user's utterance as in Figure 4 of the "Hello"
a2 is given to the agent action book 62 via the communication unit 60. The agent action collection 62 includes, in addition to the utterances of the specialized agents, agent data 72 describing images and actions thereof. In addition, a page is provided one-to-one with the URL specified by the utterance search unit 34. Specifically, the page 64 of the URLa1 and the page 6 of the URLa2 are provided.
6. It is configured as a URL 68 page. Each page is a so-called Web page, not only the speech by the talking agent, but also the display of images and actions, the services that the agent should perform,
For example, it also searches for information. In other words, one Web page is provided for each utterance of the user, and the flexibility and enhancement of the response are intended.

【0029】各ページはほぼ同じ構成であるから、同図
ではURLa1のページ64のみを詳述している。UR
La1のページ64はエージェント出力部70、ユーザ
発話取得部74、特定処理実行部76を有する。これら
はこのページの背後で作用するCGI(Common Gateway
Interface)により実現される。エージェント出力部7
0はエージェントデータ72をもとに、おしゃべりエー
ジェントによってユーザの発話へ応答する。特定処理実
行部76は、前述のごとく、発話による応答以外の処
理、例えば情報の検索、各種プログラムの実行など任意
の処理を行う。一例として、このページに到達する原因
となったユーザの発話が「今日のニュースが知りたい」
であれば、おしゃべりエージェントはインターネット1
4を通してニュースを検索し、ユーザに示す。ユーザ発
話取得部74は、ユーザによるそれ以降の通常発話を取
得し、これを起点サーバ20へ通知する。その結果、起
点サーバ20によって新たに専門サーバが特定される。
Since each page has substantially the same configuration, only the page 64 of URLa1 is described in detail in FIG. UR
The La1 page 64 has an agent output unit 70, a user utterance acquisition unit 74, and a specific process execution unit 76. These are the CGIs that work behind this page (Common Gateway
Interface). Agent output unit 7
0 responds to the user's utterance by the talking agent based on the agent data 72. As described above, the specific process execution unit 76 performs any process other than the response by the utterance, such as information search and execution of various programs. As an example, the utterance of the user who arrived at this page is "I want to know today's news"
If so, the talking agent is Internet 1
4 to retrieve news and show it to the user. The user utterance acquisition unit 74 acquires the subsequent normal utterance by the user and notifies the origin server 20 of this. As a result, a new specialized server is specified by the origin server 20.

【0030】図7は、ユーザ端末12の内部構成を示
す。通信部130はインターネット14を介して起点サ
ーバ20、おしゃべりサーバ24、献立サーバ26等と
通信する。ユーザインタフェイス138はユーザの意思
決定を促し、またそれを入力するための構成全般の総称
で、キーボード、マウス、表示装置、各種データインタ
フェイスを含む。ローカルエージェント出力部132は
ローカルエージェントデータ134を読み出してユーザ
インタフェイス138を通じてユーザへ提供する。ユー
ザの処理開始発話および通常発話は、ユーザインタフェ
イス138を介してユーザ発話入力部136に取得さ
れ、これが通信部130、インターネット14を経由し
て起点サーバ20へ送信される。以上が実施の形態の構
成全般であり、以下その処理を具体例で示す。
FIG. 7 shows the internal configuration of the user terminal 12. The communication unit 130 communicates with the origin server 20, the talking server 24, the menu server 26, and the like via the Internet 14. The user interface 138 is a general term for a general configuration for prompting and inputting a user's decision and includes a keyboard, a mouse, a display device, and various data interfaces. The local agent output unit 132 reads out the local agent data 134 and provides it to the user through the user interface 138. The user's processing start utterance and normal utterance are acquired by the user utterance input unit 136 via the user interface 138, and transmitted to the origin server 20 via the communication unit 130 and the Internet 14. The general configuration of the embodiment has been described above, and the processing will be described below with a specific example.

【0031】図8はユーザがユーザ端末12を起動した
とき表示される画面150を示す。ここではローカルエ
ージェント152が現れ、「ようこそ! 私とおしゃべ
りしましょう。」と話す。ユーザは入力領域154に
「こんにちは」と入力し、送信ボタンを押す。入力領域
154はユーザがローカルエージェント152をクリッ
クしたとき現れる構成としてもよく、クリックがなされ
ない間はローカルエージェント152がとりとめのない
ことばを発し続けてもよいし、ユーザに質問をして発話
を促してもよい。いずれにせよ、入力された「こんにち
は」は処理開始発話として起点サーバ20へ送られ、そ
の内容から専門サーバとしておしゃべりサーバ24が特
定され、ユーザ端末12のアクセス先がそのページへ移
行する。
FIG. 8 shows a screen 150 displayed when the user activates the user terminal 12. Here the local agent 152 appears and says, "Welcome! Let's talk to me." The user inputs a "Hello" in the input area 154, and press the send button. The input area 154 may be configured to appear when the user clicks on the local agent 152, and the local agent 152 may continue to speak random words while no click is made, or may ask the user a question and prompt the user to speak. You may. In any case, was entered "Hello" is sent to the origin server 20 as the start of processing speech, it has been identified chat server 24 as a specialized server from its contents, the access destination of the user terminal 12 is transferred to the page.

【0032】図9はそのとき表示される画面150であ
る。ここではおしゃべりエージェント156が表示され
るが、この実施の形態では、ローカルエージェント15
2と同一のエージェント画像を利用することにより、シ
ームレスな会話が続いているように見せている。おしゃ
べりエージェント156は「こんにちは! 私はおしゃ
べりエージェントのピー子です。・・・」と発話する。
ユーザが入力領域154で「レシピをおしえて」と入力
し、これを送信すると、これが起点サーバ20で取得さ
れ、新たに献立サーバ26のひとつのページが特定され
る。特定されたページのURLはユーザ端末12へ送ら
れ、ユーザ端末12のアクセス先がそのページへ移る。
FIG. 9 shows a screen 150 displayed at that time. Here, the chat agent 156 is displayed, but in this embodiment, the local agent 15 is displayed.
By using the same agent image as in No. 2, it is shown that seamless conversation continues. The chat agent 156 speaks "Hello! I am Pico of chat agent. ...".
When the user inputs “Tell me a recipe” in the input area 154 and sends it, this is acquired by the origin server 20 and one page of the menu server 26 is newly specified. The URL of the specified page is sent to the user terminal 12, and the access destination of the user terminal 12 moves to the page.

【0033】図10はそのとき現れる画面150を示
す。ここでは献立エージェント160が新たに登場し、
「りょうかい! 献立エージェントの私におまかせ
を。」と発話し、つづけて「どういう料理が知りたいで
すか?」と質問する。これはユーザの発話が漠然とレシ
ピを尋ねているとき、あまりにも候補が多いため、予め
絞込条件をユーザから取得する趣旨である。ユーザは入
力領域154において「中華」と入力し、これを送信す
る。この通常発話は起点サーバ20へ送られるが、そこ
で特定される専門サーバはやはり献立サーバ26であ
り、ただしその中の別のページへ移る。
FIG. 10 shows a screen 150 appearing at that time. Here, a menu agent 160 has newly appeared,
Say, "Let's leave it to me, the menu agent." Then he asks, "What kind of food do you want to know?" This means that when the utterance of the user is vaguely asking for a recipe, there are too many candidates, and the narrowing-down condition is acquired in advance from the user. The user inputs “China” in the input area 154 and transmits this. This normal utterance is sent to the origin server 20, where the specialized server specified is still the menu server 26, but moves to another page therein.

【0034】図11はそうして移った先のページを示す
画面150である。ここではさらに検索条件を絞り込む
ために、献立エージェント160が「さて、食材はどう
しましょう。ひとつ選んでください。」と尋ねている。
画面150の下部にはラジオボタン付きの食材候補を表
示する領域162が現れ、候補として「豚」「牛」
「魚」などが挙げられている。ユーザはここでは「牛」
を選択し、送信ボタンを押したとする。
FIG. 11 shows a screen 150 showing the page to which the user has moved. Here, in order to further narrow down the search conditions, the menu agent 160 asks, "Well, what about the ingredients. Please choose one."
At the lower part of the screen 150, an area 162 for displaying a food candidate with a radio button appears.
"Fish" and the like. The user here is "cow"
Is selected and the send button is pressed.

【0035】図12はそのとき現れる画面150であ
る。図12の画面150は図11の画面150と異なる
ページであるが、今回は発話がもとでアクセス先が変化
したのではなく、前述の「牛」というラジオボタンにリ
ンクされたページへ飛んだ結果変化している。このよう
に、専門エージェントによる発話に、予め準備した選択
肢を組み込むことにより、一般論として、より簡便かつ
確実にユーザの意思を確認することができる。
FIG. 12 shows a screen 150 appearing at that time. The screen 150 in FIG. 12 is a page different from the screen 150 in FIG. 11, but this time, the access destination did not change based on the utterance, and the user jumped to the page linked to the above-mentioned “cow” radio button. The result is changing. In this way, by incorporating the options prepared in advance into the utterance by the specialized agent, the user's intention can be confirmed more easily and reliably as a general theory.

【0036】図12では、すでに先のユーザの希望、す
なわち、 「中華」and「牛」and「レシピ」 という検索条件のもとで、特定処理実行部76によるイ
ンターネット14上への検索が完了しており、献立エー
ジェント160が「こういうのはどうでしょうか」と発
話し、「牛肉とピーマンの炒めもの」その他のレシピの
タイトル170が表示されている。これらのタイトル1
70にはリンクが貼られており、それぞれ詳細な説明の
ページへアクセス可能に構成されている。また、検索結
果欄172には、中華レシピを紹介するサイトが表示さ
れており、ユーザの便宜が図られている。いずれにせ
よ、この画面150を起点に、ユーザはレシピの詳細を
知ることができる。同図では、さらなるユーザの通常発
話として、「飛行機の時刻表が見たい」が入力領域15
4に入力されている。これが送信されると、起点サーバ
20では図示しない旅行サーバの旅行エージェントが特
定され、必要な処理が開始される。
In FIG. 12, the search on the Internet 14 by the specific processing execution unit 76 has already been completed under the search conditions of the previous user, that is, “China” and “cow” and “recipe”. The menu agent 160 speaks, "What about this?", And the title 170 of "Fried beef and pepper" and other recipes is displayed. These titles 1
A link is affixed to 70 so that a detailed explanation page can be accessed. In the search result column 172, a site for introducing a Chinese recipe is displayed, for the convenience of the user. In any case, starting from this screen 150, the user can know the details of the recipe. In the same figure, as the normal utterance of the further user, “I want to see the timetable of the airplane” is displayed in the input area 15.
4 has been entered. When this is transmitted, the travel agent of the travel server (not shown) is specified in the origin server 20, and necessary processing is started.

【0037】一方、図示しないが、ユーザが例えば「エ
ジプトの王宮料理を知りたい」などと入力した場合、こ
れは不明発話として扱われる可能性がある。その場合、
この発話がそのままシステム管理者へ通知され、ユーザ
発話集38とインデックスファイル36の更新が行われ
る。また、それに応答すべき献立サーバの中に新たなペ
ージが設けられ、以降、この発話に対しては正しくエジ
プトの王宮料理に関する情報が返される。
On the other hand, although not shown, if the user inputs, for example, "I want to know Egyptian royal cuisine," this may be treated as an unknown utterance. In that case,
This utterance is notified as it is to the system administrator, and the user utterance collection 38 and the index file 36 are updated. In addition, a new page is provided in the menu server to respond to, and thereafter, information regarding the Egyptian royal cuisine is correctly returned for this utterance.

【0038】以上、本発明をいくつかの実施の形態をも
とに説明した。これらの実施の形態は例示であり、それ
らの各構成要素や各処理プロセスの組合せにいろいろな
変形例が可能なこと、またそうした変形例も本発明の範
囲にあることは当業者に理解されるところである。そう
した例を挙げる。
The present invention has been described based on several embodiments. These embodiments are exemplifications, and it is understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. By the way. Here are some examples.

【0039】図8等においてユーザの発話はテキストベ
ースで行われたが、これは音声認識で行ってもよい。そ
の場合、ユーザはより一層専門エージェントと対話して
いる形になる。専門エージェントも音声で発話してもよ
い。
In FIG. 8 and the like, the user's utterance is performed on a text basis, but this may be performed by voice recognition. In that case, the user is in a form that is more interacting with the specialized agent. Specialized agents may also speak by voice.

【0040】不明発話は、ユーザ発話集38において特
定できなかった発話と考えたが、ユーザ発話集38では
特定できても、実際に専門エージェントによる応答が不
完全だったか、または全く実現できなかった場合に、そ
の発話を不明発話とよんでもよい。たとえば、「レシピ
を知りたい」というユーザの発話をもとに特定処理実行
部76が検索をかけたとき、候補が多すぎてユーザの意
に叶わなかったような場合も不明発話として管理者へ通
知し、専門エージェントによる対応を改善させてもよ
い。
The unknown utterance was considered to be an utterance that could not be specified in the user utterance collection 38, but could be specified in the user utterance collection 38, but the response by the specialized agent was actually incomplete or could not be realized at all. In that case, the utterance may be called an unknown utterance. For example, when the specific process execution unit 76 performs a search based on the user's utterance “I want to know the recipe”, if the number of candidates is too large to satisfy the user's wishes, the utterance to the administrator is also unknown. Notifications may be made to improve the response by specialized agents.

【0041】実施の形態では、ユーザによる専門サーバ
へのアクセス状況を考慮して専門エージェントによる発
話を適宜選択した。これ以外にも、ユーザの属性情報を
もとに発話を選択してもよい。例えば、ユーザが女性の
場合、専門エージェントは比較的柔らかい表現を選択し
てもよいし、ユーザが年輩の場合、よりていねいな表現
を選択してもよい。
In the embodiment, the utterance by the specialized agent is appropriately selected in consideration of the access situation of the user to the specialized server. Alternatively, the utterance may be selected based on the attribute information of the user. For example, if the user is a woman, the professional agent may select a relatively soft expression, and if the user is an elderly user, a more precise expression may be selected.

【0042】実施の形態では、ローカルエージェント1
52とおしゃべりエージェント156の画像を一致させ
たが、当然それに限る必要はない。また、ローカルエー
ジェント152をユーザ端末12に実装することはや
め、起動時に現れる「処理開始エージェント」のような
ものを起点サーバ20に実装しておいてもよい。
In the embodiment, the local agent 1
Although the image of the chat agent 52 and the image of the chat agent 156 are matched, it is not necessary to limit to this. Further, the local agent 152 may not be mounted on the user terminal 12, but may be mounted on the origin server 20 such as a “processing start agent” appearing at the time of startup.

【0043】[0043]

【発明の効果】本発明によれば、ユーザの多岐にわたる
発話その他の要求に対し、比較的短い時間で応答するエ
ージェントが実現する。また、エージェントによる応答
の精度を継続的に、かつ効率的に高めていくことができ
る。
According to the present invention, an agent that responds to a user's various utterances and other requests in a relatively short time is realized. Further, the accuracy of the response by the agent can be continuously and efficiently increased.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施の形態に係るユーザ支援システムを含む
ネットワークシステムの全体構成図である。
FIG. 1 is an overall configuration diagram of a network system including a user support system according to an embodiment.

【図2】 ユーザ支援システムに含まれる起点サーバの
構成図である。
FIG. 2 is a configuration diagram of an origin server included in the user support system.

【図3】 起点サーバに含まれるインデックスファイル
の構成図である。
FIG. 3 is a configuration diagram of an index file included in an origin server.

【図4】 起点サーバに含まれるユーザ発話集の構成図
である。
FIG. 4 is a configuration diagram of a user utterance collection included in an origin server.

【図5】 起点サーバに含まれるアクセス情報ファイル
の構成図である。
FIG. 5 is a configuration diagram of an access information file included in an origin server.

【図6】 ユーザ支援システムに含まれるおしゃべりサ
ーバの構成図である。
FIG. 6 is a configuration diagram of a talking server included in the user support system.

【図7】 ユーザ支援システムを利用するユーザ端末の
構成図である。
FIG. 7 is a configuration diagram of a user terminal that uses the user support system.

【図8】 ユーザ端末を起動したときに現れるローカル
エージェントを示す図である。
FIG. 8 is a diagram showing a local agent appearing when a user terminal is started.

【図9】 ユーザが発話したとき現れるおしゃべりエー
ジェントを示す図である。
FIG. 9 is a diagram showing a chatting agent appearing when the user speaks.

【図10】 ユーザがレシピを尋ねたとき現れる献立エ
ージェントを示す図である。
FIG. 10 is a diagram showing menu agents appearing when a user asks for a recipe.

【図11】 献立エージェントが検索の絞込条件をユー
ザに確認する様子を示す図である。
FIG. 11 is a diagram showing a manner in which a menu agent confirms a search narrowing condition to a user.

【図12】 献立エージェントが検索結果をユーザに提
示する場面を示す図である。
FIG. 12 is a diagram showing a scene where a menu agent presents a search result to a user.

【符号の説明】[Explanation of symbols]

12 ユーザ端末、 16 ユーザ支援システム、 2
0 起点サーバ、 24 おしゃべりサーバ、 26
献立サーバ、 32 発話取得部、 34 発話検索
部、 36 インデックスファイル、 38 ユーザ発
話集、 42 通知部、 44 アクセス記録部、 6
2 エージェント行動集、 104 ファイル名、 1
20 応答すべき専門サーバのページアドレス、 13
2 ローカルエージェント出力部、 152 ローカル
エージェント、 156 おしゃべりエージェント、
160 献立エージェント。
12 user terminals, 16 user support systems, 2
0 Origin server, 24 Talking server, 26
Menu server, 32 utterance acquisition unit, 34 utterance search unit, 36 index file, 38 user utterance collection, 42 notification unit, 44 access recording unit, 6
2 agent action book, 104 file name, 1
20 Page address of specialized server to respond to, 13
2 local agent output section, 152 local agent, 156 chatting agent,
160 Menu agent.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 3/16 320 G06F 3/16 320H 340 340Z (72)発明者 松岡 継文 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 Fターム(参考) 5B075 ND20 NK10 NK46 PQ04 5E501 AA02 AB15 AC15 BA05 CA08 CB15 DA01 EA21 FA14 FA32 FA43 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 3/16 320 G06F 3/16 320H 340 340Z (72) Inventor Tsugufumi Matsuoka 2 Keihanhondori, Moriguchi-shi, Osaka 5-5-5 Sanyo Electric Co., Ltd. F-term (reference) 5B075 ND20 NK10 NK46 PQ04 5E501 AA02 AB15 AC15 BA05 CA08 CB15 DA01 EA21 FA14 FA32 FA43

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 ユーザの発話を想定して作成された電子
的なユーザ発話集を有し、前記ユーザから発話が入力さ
れたときその内容を特定する第1のブロックと、 前記発話に対する応答を目的とするエージェントの行動
を想定して作成された電子的なエージェント行動集を有
し、前記ユーザの発話に前記エージェントによって応答
せしめる第2のブロックとを含み、 前記第1および第2のブロックを別個に構成することに
より、前記ユーザ発話集と前記エージェント行動集を分
離したことを特徴とするユーザ支援システム。
An electronic user utterance collection created assuming an utterance of a user, a first block for specifying the content of the utterance when the utterance is input from the user, and a response to the utterance. A second block that has an electronic agent action book created on the assumption of a target agent action, and causes the agent to respond to the utterance of the user, wherein the first and second blocks are A user support system, wherein the user utterance collection and the agent action collection are separated by being configured separately.
【請求項2】 本システムは前記ユーザの端末とネット
ワークを介して接続され、 前記第1のブロックおよび前記第2のブロックは、異な
るネットワークノードとして構成されていることを特徴
とする請求項1に記載のユーザ支援システム。
2. The system according to claim 1, wherein the system is connected to a terminal of the user via a network, and the first block and the second block are configured as different network nodes. A user support system as described.
【請求項3】 本システムは前記第2のブロックを複数
含み、それらのブロックのそれぞれが前記ユーザに対し
て専門のサービスを提供することを特徴とする請求項
1、2のいずれかに記載のユーザ支援システム。
3. The system according to claim 1, wherein the system includes a plurality of the second blocks, each of which provides a specialized service to the user. User support system.
【請求項4】 前記第1のブロックは、 前記ユーザの発話を前記ユーザ発話集の中で検索する発
話検索部と、 前記ユーザの発話が前記ユーザ発話集の中に見い出され
なかったとき、その旨をシステム管理者へ通知する通知
部と、 を含むことを特徴とする請求項1から3のいずれかに記
載のユーザ支援システム。
4. The utterance search unit that searches for the utterance of the user in the utterance collection of the user, when the utterance of the user is not found in the utterance collection of the user. The user support system according to any one of claims 1 to 3, further comprising: a notification unit that notifies a system administrator of the fact.
【請求項5】 前記ユーザによる本システムへのアクセ
ス記録を取得する記録部をさらに含み、 前記第2のブロックは、前記応答のための前記エージェ
ントの行動を前記ユーザによるアクセスの状況にしたが
って複数の候補から選択することを特徴とする請求項1
から4のいずれかに記載のユーザ支援システム。
5. The recording apparatus according to claim 1, further comprising a recording unit configured to acquire a record of access to the system by the user, wherein the second block is configured to determine a plurality of actions of the agent for the response according to a situation of access by the user. 2. The method according to claim 1, wherein the selection is made from candidates.
5. The user support system according to any one of items 1 to 4.
【請求項6】 前記第2のブロックは、前記応答のため
の前記エージェントの行動を前記ユーザの属性情報に応
じて複数の候補から選択することを特徴とする請求項1
から5のいずれかに記載のユーザ支援システム。
6. The method according to claim 1, wherein the second block selects an action of the agent for the response from a plurality of candidates according to attribute information of the user.
6. The user support system according to any one of claims 1 to 5,
【請求項7】 前記第1のブロックは、前記ユーザ発話
集の内容に対するインデックスを保持するインデックス
格納部を有し、 前記検索部は、前記ユーザの発話が入力されたとき、前
記インデックス格納部に対して初期的な検索をかけるこ
とを特徴とする請求項1から6のいずれかに記載のユー
ザ支援システム。
7. The first block has an index storage unit that holds an index for the content of the user utterance collection, and the search unit stores the index in the index storage unit when the user's utterance is input. 7. The user support system according to claim 1, wherein an initial search is performed on the user support system.
JP2000323559A 2000-10-24 2000-10-24 User support system Pending JP2002132803A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000323559A JP2002132803A (en) 2000-10-24 2000-10-24 User support system
US09/823,282 US6922670B2 (en) 2000-10-24 2001-03-30 User support apparatus and system using agents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000323559A JP2002132803A (en) 2000-10-24 2000-10-24 User support system

Publications (1)

Publication Number Publication Date
JP2002132803A true JP2002132803A (en) 2002-05-10

Family

ID=18801208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000323559A Pending JP2002132803A (en) 2000-10-24 2000-10-24 User support system

Country Status (1)

Country Link
JP (1) JP2002132803A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092585A (en) * 2016-12-06 2018-06-14 パナソニックIpマネジメント株式会社 Information processing method, information processing device, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092585A (en) * 2016-12-06 2018-06-14 パナソニックIpマネジメント株式会社 Information processing method, information processing device, and program

Similar Documents

Publication Publication Date Title
JP2002132804A (en) User support system
US6922670B2 (en) User support apparatus and system using agents
RU2451329C2 (en) Context-sensitive searches and functionalities for instant text messaging applications
US9305050B2 (en) Aggregator, filter and delivery system for online context dependent interaction, systems and methods
JP6280342B2 (en) Function execution instruction system and function execution instruction method
US8639713B2 (en) Dynamic menus for multi-prefix interactive mobile searches
CN103080927B (en) Automatic route using Search Results
JP4500784B2 (en) Service user support system
US20020052913A1 (en) User support apparatus and system using agents
KR20080114693A (en) A search tool providing optional use of human search guides
KR101085715B1 (en) Initial impression analysis tool for an online dating services
CN110574004B (en) Initializing a conversation with an automated agent via an optional graphical element
US20020073176A1 (en) User support apparatus and system using agents
JP2009505284A (en) Virtual robot communication format customized by endpoint
JP6510379B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2001063380A2 (en) Systems and methods for matching participants to a conversation
KR20010079276A (en) Devided multimedia page and method and system for studying language using the page
CN110460514A (en) Message method, device, storage medium and the equipment of instant messaging tools
JP2019175464A (en) Information processing device, information processing method and program
CN109564580A (en) Promote effectively search using message exchange thread
JP2002169818A (en) Device and system for supporting user
JP2002163109A (en) User supporting device and system
JP2002163171A (en) Device and system for supporting user
JP2002132803A (en) User support system
US20060075037A1 (en) Portal for managing communications of a client over a network