JP2002341985A - Character interface system - Google Patents

Character interface system

Info

Publication number
JP2002341985A
JP2002341985A JP2001151545A JP2001151545A JP2002341985A JP 2002341985 A JP2002341985 A JP 2002341985A JP 2001151545 A JP2001151545 A JP 2001151545A JP 2001151545 A JP2001151545 A JP 2001151545A JP 2002341985 A JP2002341985 A JP 2002341985A
Authority
JP
Japan
Prior art keywords
user
dialogue
character
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001151545A
Other languages
Japanese (ja)
Inventor
Masatoshi Arai
正敏 新井
Koichi Murakami
公一 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001151545A priority Critical patent/JP2002341985A/en
Publication of JP2002341985A publication Critical patent/JP2002341985A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide profitable service/information by supporting proper selection of the service/information for a user through natural conversation with the user. SOLUTION: A character interface providing part 10 provides a character by using a character display part 11. A dialogue input part 12 and a dialogue output part 13 are provided as an interface through the character and can have a dialogue with the user. The dialogue inputted from the user is recognized by a dialogue recognizing part 20 and stored in a user profile information storage part 31 of a user profile information managing part 30 as user profile information. A dialogue control part 40 receives feedback of a dialogue recognition result and the user profile information, generates a dialogue sentence based on a knowledge base of a dialogue knowledge part 41 and outputs the dialogue to the user through the dialogue output part 13.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、利用者インタフェ
ースシステムに関する。特に、利用者との自然な対話に
より利用者情報を取得し、利用者の趣向に合った効果的
な情報を提供するインタフェースシステムに関する。
[0001] The present invention relates to a user interface system. In particular, the present invention relates to an interface system that acquires user information through a natural dialog with a user and provides effective information according to the user's taste.

【0002】[0002]

【従来の技術】コンピュータや電子機器の普及に伴い、
より人にやさしいサービス、利用者インタフェースの提
供が求められている。また、インターネットやデジタル
テレビなどデジタルデータを送受信するネットワークシ
ステムの進展に伴い、サービスを提供する企業と、サー
ビスを利用する利用者との間がネットワークで結ばれ、
両者間で、商品の売買契約サービス、電子決済サービ
ス、情報提供サービスなど様々なサービス提供が行われ
ている。このように、企業と利用者がネットワークで結
ばれる形態をBtoC(Business to Customer)と呼ぶことも
ある。
2. Description of the Related Art With the spread of computers and electronic devices,
There is a demand for more user-friendly services and user interfaces. In addition, with the development of network systems that transmit and receive digital data, such as the Internet and digital television, networks between companies that provide services and users who use the services are connected by networks.
Various services are provided between the two parties, such as a product sales contract service, an electronic settlement service, and an information providing service. In this way, a form in which a company and a user are connected via a network is sometimes called BtoC (Business to Customer).

【0003】従来技術においても、利用者がコンピュー
タシステムを利用しやすいように利用者インタフェース
が提供されている。典型的には、グラフィックユーザー
インタフェース(以下、GUIと略記する。)と呼ばれ
る、デスクトップ環境やアプリケーションインタフェー
ス、データオブジェクトを可視化した利用者インタフェ
ースが提供されている。このGUIを介して、利用者
は、マウスなどのポインティングデバイスや音声入力デ
バイスにより、データオブジェクトを操作したり、コマ
ンド入力を実行したりすることができる。
In the prior art, a user interface is provided so that the user can easily use the computer system. Typically, a desktop environment, an application interface, and a user interface that visualizes data objects called a graphic user interface (hereinafter abbreviated as GUI) are provided. Through this GUI, the user can operate a data object or execute a command input using a pointing device such as a mouse or a voice input device.

【0004】また、従来技術においてエージェントシス
テムを用いれば、利用者がサービス提供オブジェクトに
対するオブジェクトインタフェースを直接知らなくて
も、エージェントの仲介によりサービス提供オブジェク
トのサービスを利用することができる。つまり、利用者
がエージェントシステムに対して適切な依頼データを渡
すことにより、エージェントシステムは、当該依頼デー
タの依頼内容を解析し、サービス提供オブジェクトに対
して適切にアクセスし、サービス提供オブジェクトから
自律的に適切な回答を得て、利用者に当該回答を提示す
る。また、エージェントシステムの中には、サービス提
供オブジェクトに対する依頼を仲介するだけでなく、利
用者からの依頼に基づき、自律的にネットワーク上のデ
ータベースを探索し、情報を収集して提供するという一
種のロボット機能を有するものもある。
[0004] Further, if an agent system is used in the prior art, the user can use the service of the service providing object through the mediation of the agent without directly knowing the object interface to the service providing object. That is, when the user passes appropriate request data to the agent system, the agent system analyzes the request content of the request data, appropriately accesses the service providing object, and autonomously receives the request from the service providing object. Obtain an appropriate answer and present the answer to the user. Also, some types of agent systems not only mediate requests for service providing objects, but also autonomously search databases on networks based on requests from users, and collect and provide information. Some have a robot function.

【0005】[0005]

【発明が解決しようとする課題】上記GUIやエージェ
ントシステムを用いて、ネットワーク上のサービスや情
報を利用する場合、利用するサービス・情報の取捨選択
が困難であるという問題があった。インターネットの普
及に伴い、ネットワークを介して利用可能なサービス、
アクセス可能な情報は膨大になりつつある。このため、
利用者はインターネット利用に関する知識、コンピュー
タシステム操作に関する知識とともに、これら膨大なサ
ービス・情報の中から、適切なサービス・情報を取捨選
択する必要がある。
When services and information on a network are used by using the GUI and the agent system, there is a problem that it is difficult to select the services and information to be used. With the spread of the Internet, services available via networks,
The amount of accessible information is growing. For this reason,
The user needs to select appropriate services and information from among such a huge amount of services and information, as well as knowledge of using the Internet and knowledge of operating computer systems.

【0006】従来のGUIを用いれば、利用者は、可視
化され、直感的に分かりやすい利用者インタフェースを
利用することができる。
By using the conventional GUI, a user can use a user interface that is visualized and intuitively understandable.

【0007】しかし、従来のGUIは、利用者自身がコ
ンピュータシステムに対する操作目的を明確に持ち、実
際にコンピュータを操作する作業段階において、利用者
の作業自体を支援するものと言える。利用者自身がコン
ピュータシステムに対する操作目的を明確に持たない状
態では、従来のGUIは、利用者に対して適切なサービ
ス・情報の取捨選択を支援するものとは言えない。
However, it can be said that the conventional GUI supports the user himself / herself in the operation stage of actually operating the computer, with the user having a clear purpose of operating the computer system. If the user does not clearly have a purpose of operating the computer system, the conventional GUI cannot be said to support the user in selecting appropriate services and information.

【0008】従来のエージェントシステムを用いれば、
利用者がサービス提供オブジェクトの利用者インタフェ
ースを直接知らなくても、エージェントシステムに対す
る利用者インタフェースを知っておれば、エージェント
システムが依頼内容を適切に仲介してくれるので、サー
ビス提供オブジェクトに対してアクセスすることができ
る。また、アクセスしたいサービス提供オブジェクトが
明確に分からない状態でも、エージェントシステムのロ
ボット機能により、ネットワーク上から適切なサービス
提供オブジェクトを探索して、当該サービス提供オブジ
ェクトの利用を可能としてくれる。
If a conventional agent system is used,
Even if the user does not directly know the user interface of the service providing object, if the user knows the user interface to the agent system, the agent system will appropriately mediate the contents of the request, so access to the service providing object can do. Further, even if the service providing object to be accessed is not clearly known, the robot function of the agent system searches for an appropriate service providing object from the network and enables the use of the service providing object.

【0009】しかし、従来のエージェントシステムを用
いる場合にも問題がある。従来のエージェントシステム
は、利用者自身がアクセスしたいサービス提供オブジェ
クトを明確に把握し、実際にそのサービス提供オブジェ
クトにアクセスする段階において、利用者の作業自体を
支援するものと言える。利用者自身がサービス提供オブ
ジェクトを明確に把握していない状態では、従来のエー
ジェントシステムは、利用者に対して適切なサービス・
情報の取捨選択を支援するものとは言えない。また、従
来のエージェントのロボット機能は、利用者自身がサー
ビスを受けようとする依頼内容を明確に把握し、実際に
その依頼をサービス提供オブジェクトに与える段階にお
いて、利用者の依頼作業自体を支援するものと言える。
利用者自身がサービス内容を依頼明確に把握していない
状態では、やはり、従来のエージェントシステムは、利
用者に対して適切なサービス・情報の取捨選択を支援す
るものとは言えない。
However, there is also a problem when using a conventional agent system. It can be said that the conventional agent system clearly identifies the service providing object that the user himself / herself wants to access, and assists the user himself / herself at the stage of actually accessing the service providing object. If the user does not know the service providing object clearly, the conventional agent system can
It does not support the selection of information. In addition, the robot function of the conventional agent supports the user's request work itself at the stage where the user himself / herself clearly grasps the request content to receive the service and actually gives the request to the service providing object. It can be said.
If the user himself / herself does not clearly understand the service contents, the conventional agent system cannot be said to support the user in selecting appropriate services and information.

【0010】利用者自身が、ネットワーク上のリソース
を利用するという明確な意思を持っていない状態であっ
たり、有益なサービス・情報の存在を認識していない状
態であっても、利用者の状況、利用者の趣味趣向から、
当該利用者にとり有益なサービス・情報が、ネットワー
クリソース内に存在しているケースは多分に存在する。
[0010] Even if the user does not have a clear intention to use the resources on the network, or does not recognize the existence of useful services and information, the situation of the user is maintained. , From the taste of the user,
In many cases, services and information useful for the user exist in the network resources.

【0011】この問題は、単なるプッシュ技術では解決
できない。プッシュ技術は、概ね、事前に登録しておい
た利用者属性や、利用者のウェブサイトの利用履歴に基
づいて強制的に電子ダイレクトメールを送り付けるもの
であり、上記エージェント技術と同一視されるものであ
る。
[0011] This problem cannot be solved by simple push technology. In general, push technology forcibly sends electronic direct mail based on the user attributes registered in advance and the usage history of the user's website, and is considered the same as the above agent technology It is.

【0012】本発明のキャラクタインタフェースシステ
ムは、利用者に対してキャラクタを介した自然な会話を
行うシステムであって、利用者に対する自然な会話を通
じて利用者の適切なサービス・情報の取捨選択を支援
し、時々刻々変化する利用者の状況、利用者の趣味趣向
から、当該利用者にとって有益なサービス・情報の提供
を支援することを目的とする。
The character interface system of the present invention is a system for performing a natural conversation with a user through a character, and assists the user in selecting appropriate services and information through a natural conversation with the user. It is another object of the present invention to support the provision of services and information that are useful for the user based on the situation of the user, which is changing from moment to moment, and the taste of the user.

【0013】[0013]

【課題を解決するための手段】上記目的を達成するため
に、本発明のキャラクタインタフェースシステムは、コ
ンピュータグラフィックスのキャラクタを介して、利用
者との対話インタフェースを提供するキャラクタインタ
フェース提供部と、前記キャラクタを介して得た対話内
容を認識する対話認識部と、前記対話認識部の認識結果
から得た利用者情報を基に、利用者プロファイル情報を
編集・更新する利用者プロファイル情報管理部と、対話
知識と前記利用者プロファイル情報を基に、利用者との
対話内容を制御する対話制御部を備えたことを特徴とす
る。
In order to achieve the above object, a character interface system according to the present invention provides a character interface providing unit for providing an interactive interface with a user via a computer graphics character; A dialogue recognition unit for recognizing dialogue contents obtained through a character, and a user profile information management unit for editing and updating user profile information based on user information obtained from a recognition result of the dialogue recognition unit, A dialogue control unit for controlling the content of the dialogue with the user based on the dialogue knowledge and the user profile information is provided.

【0014】上記構成により、利用者はキャラクタに対
して自然な会話を楽しむことができ、この日々の会話を
通じて、利用者に対して意識させることなく、時々刻々
変化する利用者の状況、利用者の持続的な趣味趣向、利
用者の一時的な感情・気まぐれに関する情報などの利用
者情報を自律的かつ柔軟に収集でき、利用者プロファイ
ル情報を編集・更新することができる。この利用者プロ
ファイル情報を利用することにより、当該利用者にとっ
ての有益なサービス・情報の提供支援を行うことができ
る。
[0014] With the above configuration, the user can enjoy a natural conversation with the character. Through this daily conversation, the user's situation, the user's situation that changes every moment without being conscious of the user. It is possible to autonomously and flexibly collect user information, such as information on persistent hobbies and interests, and temporary emotions and whims of the user, and edit and update user profile information. By using this user profile information, it is possible to support the provision of useful services and information for the user.

【0015】なお、本発明では、利用者情報とは、利用
者に関して得られた情報をいい、例えば、利用者の何ら
かのイベント発生ごとに得られる情報である。利用者プ
ロファイル情報とは、得られた利用者情報を利用者ごと
に整理・編集して生成した情報をいうものとして説明す
る。利用者プロファイル情報は、新たに得られる利用者
情報を取り込みつつ、蓄積・更新されてゆく。例えば、
利用者プロファイル情報の内容を解析すれば、利用者の
趣向や傾向が分かる。
In the present invention, the user information refers to information obtained about the user, for example, information obtained every time an event of the user occurs. The user profile information will be described as information generated by organizing and editing the obtained user information for each user. The user profile information is accumulated and updated while taking in newly obtained user information. For example,
By analyzing the content of the user profile information, the user's taste and tendency can be understood.

【0016】次に、本発明のキャラクタインタフェース
システムは、利用者が発する情報または利用者を観察し
て得られる情報を利用者情報として取り込むモニタ部を
備えることにより、利用者情報を得て、利用者と対話し
なくても、自律的に利用者の状態などの情報を得ること
ができる。また、モニタ部より得た利用者情報の内容
と、利用者プロファイル情報の内容とを照合する照合部
を備え、前記対話制御部が、前記照合部による照合結果
に基づき、利用者への対話内容を制御するように構成す
れば、利用者の観察結果に基づいて、適切な対話内容を
決めることができる。
Next, the character interface system of the present invention is provided with a monitor section for taking in information uttered by a user or information obtained by observing the user as user information, thereby obtaining user information. It is possible to autonomously obtain information such as the state of the user without interacting with the user. A checking unit that checks the content of the user information obtained from the monitor unit and the content of the user profile information, wherein the dialogue control unit determines the content of the dialogue with the user based on the checking result by the checking unit; , It is possible to determine appropriate conversation contents based on the observation result of the user.

【0017】例えば、モニタ部は、利用者が電子決済し
たトランザクションデータ、利用者が閲覧したウェブサ
イト情報、利用者が送受信した電子メール情報、利用者
が発した音声情報、利用者が行った行為内容を示すデー
タ、利用者の感情を示すデータのいずれか、または、そ
れらの組み合わせの情報を取り込むことができるものと
する。
[0017] For example, the monitor unit is configured to provide transaction data electronically settled by the user, website information browsed by the user, e-mail information transmitted and received by the user, voice information issued by the user, and actions performed by the user. It is assumed that data indicating the content, data indicating the emotion of the user, or a combination thereof can be captured.

【0018】次に、本発明のキャラクタインタフェース
システムは、利用者の位置を検知する利用者位置検知部
と、前記利用者位置検知部が検知した利用者の位置の近
傍のアクセス可能なプラットフォームを検知するプラッ
トフォーム検知部と、前記キャラクタインタフェース構
築データを前記プラットフォームに転送するキャラクタ
インタフェース構築データ転送部を備え、利用者が位置
を移動した場合、前記キャラクタインタフェース構築デ
ータを移動場所近傍のアクセス可能なプラットフォーム
上に転送し、利用者の移動場所において前記キャラクタ
インタフェース提供部を構築することが好ましい。
Next, the character interface system of the present invention detects a user position detecting section for detecting the position of the user, and an accessible platform near the position of the user detected by the user position detecting section. And a character interface construction data transfer unit for transferring the character interface construction data to the platform. When the user moves, the character interface construction data is transferred to an accessible platform near the moving place. It is preferable to construct the character interface providing unit at the place where the user moves.

【0019】上記構成により、利用者は、本発明のキャ
ラクタインタフェースシステムの利用場所などを気にす
ることなく自由に行動でき、本発明のキャラクタインタ
フェースを利用者の移動先に構築することができる。従
来のエージェントシステムの提供する利用者インタフェ
ースは、特定の利用者端末に固定的にインストールされ
ていたり、利用者自身がネットワーク上の特定アドレス
にアクセスせざるを得ないものであったが、本発明のキ
ャラクタインタフェースは、自律的に近傍のプラットフ
ォームに移動し、利用者に対してキャラクタインタフェ
ースを提供し続けることができる。プラットフォームと
しては、有線または無線でネットワークに接続された、
コンピュータシステム、テレビジョン装置、家庭用電気
機器、携帯電話のいずれかまたはすべてを含む電子機器
を挙げることができる。
According to the above configuration, the user can freely act without worrying about the use place of the character interface system of the present invention, and the character interface of the present invention can be constructed at the destination of the user. The user interface provided by the conventional agent system is fixedly installed on a specific user terminal, or the user himself has to access a specific address on the network. Can autonomously move to a nearby platform and continue to provide the user with a character interface. As a platform, wired or wirelessly connected to the network,
Examples of the electronic device include any or all of a computer system, a television device, a household electric device, and a mobile phone.

【0020】なお、本発明のキャラクタインタフェース
システムにおいて、データベースまたはサービスへのア
クセス部を備え、前記キャラクタインタフェースが、利
用者からの質問または依頼を受け付け、前記対話認識部
が、前記質問内容または依頼内容を解析し、前記アクセ
ス部がデータベースまたはサービスにアクセスし、前記
質問内容または依頼内容に対する回答または応答を得
て、前記対話制御部が前記回答内容または応答内容に対
応する対話を生成するように構成しておけば、利用者と
の対話の中で利用者から質問を与えられた場合に適切な
回答を提供することができる。
In the character interface system according to the present invention, an access unit to a database or a service is provided, the character interface accepts a question or a request from a user, and the dialogue recognition unit replaces the question or the request. And the access unit accesses a database or service to obtain an answer or response to the question or request, and the dialog control unit generates a dialog corresponding to the answer or response. If so, an appropriate answer can be provided when a question is given by the user in a dialogue with the user.

【0021】さらに、本発明のキャラクタインタフェー
スシステムが、宣伝対象に関する情報を備えた宣伝部を
備え、前記対話制御部が、前記対話知識と前記宣伝部の
備える宣伝対象に関する情報とを基に、利用者への会話
内容に、前記宣伝対象に関する宣伝を盛り込むこととす
れば、利用者の趣味趣向や状況に合わせ、タイムリーな
宣伝を行うことも可能となる。
Further, the character interface system of the present invention includes an advertising unit provided with information on an advertising target, and the dialog control unit uses the advertising knowledge based on the dialog knowledge and information on the advertising target provided by the advertising unit. If the contents of the conversation with the user include advertisements related to the above-mentioned advertisement targets, it is also possible to perform timely advertisements in accordance with the tastes and preferences of the user.

【0022】[0022]

【発明の実施の形態】本発明のキャラクタインタフェー
スシステムの実施形態について説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the character interface system according to the present invention will be described.

【0023】(実施形態1)本発明の実施形態1のキャ
ラクタインタフェースシステムは、コンピュータグラフ
ィックスのキャラクタを介して、利用者との対話インタ
フェースを提供し、キャラクタインタフェースを介して
利用者と対話を行う。対話を通じて利用者から得た利用
者情報を基に利用者プロファイル情報を生成し、この利
用者プロファイル情報を基に利用者との対話内容を制御
する。キャラクタを介して利用者との対話が進むにつ
れ、利用者プロファイル情報が編集・更新されて行く。
対話の制御として、利用者プロファイル情報のうち不足
している情報が得られるように対話内容を制御したり、
利用者プロファイル情報の更新において、記録されてい
る内容と異なる情報についてさらに詳しく情報が得られ
るように対話内容を制御し、情報を新しいものに更新し
たりすることも可能である。
(Embodiment 1) The character interface system according to Embodiment 1 of the present invention provides a dialogue interface with a user via computer graphics characters, and interacts with the user via the character interface. . User profile information is generated based on the user information obtained from the user through the dialog, and the content of the dialog with the user is controlled based on the user profile information. As the dialogue with the user proceeds through the character, the user profile information is edited and updated.
As the control of the dialogue, the content of the dialogue is controlled so that the missing information in the user profile information is obtained.
In updating the user profile information, it is also possible to control the content of the dialog so as to obtain more detailed information about the information different from the recorded content, and to update the information to a new one.

【0024】本発明のキャラクタインタフェースシステ
ムは、ネットワークを介した、利用者と企業間の情報や
り取りの仲介をも担うことができる。すなわち、BtoCto
C (Business to Character to Customer)の関係を構築
することも狙いとしている。利用者プロファイル情報に
基づき、利用者の趣向に合わせてネットワーク上から多
様な情報を収集したり、企業側から送信される情報を取
捨選択し、利用者に提示することも可能である。また、
企業側からの依頼を受け、利用者の趣向や利用者の状態
に応じてタイムリーなセールストークを織り交ぜた対話
を行い、有効な商品等の販売促進を行うこともできる。
The character interface system of the present invention can also serve as a mediator of information exchange between a user and a company via a network. That is, BtoCto
It also aims to build a C (Business to Character to Customer) relationship. Based on the user profile information, it is also possible to collect various information from the network according to the user's taste, to select information transmitted from the company side, and to present it to the user. Also,
Upon receiving a request from the company, a dialogue including a timely sales talk can be carried out according to the user's preference and the user's condition, and sales promotion of effective products and the like can be performed.

【0025】また、本発明の実施形態1のキャラクタイ
ンタフェースシステムは、対話のみならず、利用者が発
する情報または利用者を観察して得られる情報を利用者
情報として取り込むことができる。この観察結果により
得た利用者情報の内容と利用者プロファイル情報の内容
とを照合し、照合結果に基づいて利用者への対話内容を
制御することも可能である。
Further, the character interface system according to the first embodiment of the present invention can capture not only dialogues but also information issued by a user or information obtained by observing a user as user information. It is also possible to collate the contents of the user information obtained from the observation result with the contents of the user profile information, and control the contents of the dialogue with the user based on the collation result.

【0026】図1は、本発明の実施形態1のキャラクタ
インタフェースシステム100の概略構成を示す図であ
る。
FIG. 1 is a diagram showing a schematic configuration of a character interface system 100 according to the first embodiment of the present invention.

【0027】10はキャラクタインタフェース提供部で
あり、コンピュータグラフィックスのキャラクタを介し
て、利用者との対話インタフェースを提供する部分であ
る。利用者の対話相手となるキャラクタを表示するキャ
ラクタ表示部11、例えば、マイクロフォンなど利用者
からの対話内容を入力する対話入力部12、例えば、ス
ピーカなど利用者に対して対話内容を伝える対話出力部
13を備えている。
Reference numeral 10 denotes a character interface providing unit which provides a dialog interface with a user via computer graphics characters. A character display unit 11 for displaying a character with which the user interacts, for example, a dialogue input unit 12 for inputting a dialogue content from the user such as a microphone, for example, a dialogue output unit for transmitting the dialogue content to the user such as a speaker. 13 is provided.

【0028】20は対話認識部であり、キャラクタイン
タフェース提供部が提供するキャラクタを介して得た対
話内容を認識する部分である。
Reference numeral 20 denotes a dialogue recognition unit, which recognizes dialogue contents obtained through characters provided by the character interface providing unit.

【0029】30は利用者プロファイル情報管理部であ
る。対話認識部20の対話認識結果により得た利用者情
報を基に、利用者プロファイル情報を編集・更新する部
分である。利用者プロファイル情報記憶部31を備えて
いる。
Reference numeral 30 denotes a user profile information management unit. This section edits and updates user profile information based on the user information obtained from the dialog recognition result of the dialog recognition unit 20. A user profile information storage unit 31 is provided.

【0030】40は対話制御部であり、利用者プロファ
イル情報管理部30の利用者プロファイル情報を基に利
用者との対話内容を制御する部分である。対話知識ベー
スである対話知識部41を備えている。
Reference numeral 40 denotes a dialogue control unit which controls the contents of a dialogue with the user based on the user profile information of the user profile information management unit 30. It has a dialog knowledge section 41 which is a dialog knowledge base.

【0031】本発明の実施形態1のキャラクタインタフ
ェースシステムの他の構成として、図2に示すように、
キャラクタインタフェースシステム100aとしてモニ
タ部50と照合部60を備えた構成も可能である。
As another configuration of the character interface system according to the first embodiment of the present invention, as shown in FIG.
A configuration including a monitor unit 50 and a collation unit 60 is also possible as the character interface system 100a.

【0032】モニタ部50は、利用者が発する情報また
は利用者を観察して得られる情報を利用者情報として取
り込む部分である。利用者情報を取り込む手段には、多
様なものが想定できる。例えば、利用者端末のネットワ
ーク送受信データをモニタする手段を備えることによ
り、利用者が電子決済したトランザクションデータや、
利用者が閲覧したウェブサイト情報や、電子メールデー
タ、電話の会話内容を観察して取り込むことができる。
また、カメラを備え、利用者の行動を観察して解析する
ことにより、利用者の行為内容を示すデータを観察して
取り込むことができる。また、これらの情報から利用者
の感情を示すデータを解析して取り込むことができる。
もちろん、それらの組み合わせを観察し、取り込むこと
も可能である。
The monitor section 50 is a section for taking in information issued by the user or information obtained by observing the user as user information. Various means can be assumed as means for taking in user information. For example, by providing a means for monitoring the network transmission / reception data of the user terminal, transaction data electronically settled by the user,
Observe and capture website information, e-mail data, and telephone conversations viewed by users.
In addition, by providing a camera and observing and analyzing the behavior of the user, it is possible to observe and capture data indicating the content of the behavior of the user. Further, data indicating the emotion of the user can be analyzed and taken in from the information.
Of course, it is also possible to observe and capture those combinations.

【0033】照合部60は、モニタ部50より得た利用
者情報の内容と利用者プロファイル情報管理部30の利
用者プロファイル情報の内容とを照合する部分である。
また、対話認識部20による認識結果と利用者プロファ
イル情報管理部30の利用者プロファイル情報の内容と
を照合する処理を行っても良い。両者を照合して、前者
の内容が後者の内容と不一致である場合、つまり、新た
に得られた利用者情報が、利用者プロファイル情報とし
て登録されている内容と異なる場合は、利用者の状態の
変化として捉えることが可能である。
The collating section 60 is a section for collating the contents of the user information obtained from the monitor section 50 with the contents of the user profile information of the user profile information managing section 30.
Further, a process of collating the recognition result by the dialog recognition unit 20 with the content of the user profile information of the user profile information management unit 30 may be performed. If the two are collated and the former does not match the latter, that is, if the newly obtained user information differs from the content registered as user profile information, the user status Can be considered as a change in

【0034】以下に、実施形態1のキャラクタインタフ
ェースシステムの処理の流れの例を説明する。
An example of the processing flow of the character interface system according to the first embodiment will be described below.

【0035】実施形態1のキャラクタインタフェースシ
ステムの処理は、利用者との自然な会話を通じて、利用
者に意識させることなく、利用者のプロファイル情報を
得る処理である。利用者のプロファイル情報を得る処理
には、対話による利用者のプロファイル情報収集処理
と、利用者情報のモニタによる利用者情報収集処理が含
まれる。
The processing of the character interface system according to the first embodiment is processing for obtaining profile information of a user through a natural conversation with the user without making the user conscious. The process of obtaining the user's profile information includes a process of collecting the user's profile information by dialogue and a process of collecting the user's information by monitoring the user information.

【0036】まず、対話による利用者のプロファイル情
報収集処理を説明する。
First, a process of collecting profile information of a user by dialogue will be described.

【0037】図3は、実施形態1のキャラクタインタフ
ェースシステムのキャラクタインタフェース提供部が提
供するキャラクタインタフェースの例である。この例で
は、キャラクタ表示部11がパーソナルコンピュータの
表示部であり、表示画面の一部に利用者の対話相手とな
るキャラクタである恐竜が表示されている。対話入力部
12および対話出力部13は利用者のパーソナルコンピ
ュータが備えるマイクロフォンおよびスピーカとなって
おり、音声入出力が可能な構成となっている。キャラク
タインタフェースは図3の例に限らず、テレビジョン装
置や家電電子機器など様々なプラットフォーム上に構築
可能であり、表示されるキャラクタも図3の例に限らな
い。
FIG. 3 shows an example of the character interface provided by the character interface providing unit of the character interface system according to the first embodiment. In this example, the character display unit 11 is a display unit of a personal computer, and a dinosaur that is a character with which the user interacts is displayed on a part of the display screen. The dialogue input unit 12 and the dialogue output unit 13 are microphones and speakers included in the user's personal computer, and are configured to be able to input and output voice. The character interface is not limited to the example in FIG. 3 and can be constructed on various platforms such as a television device and a home electronic device, and the displayed characters are not limited to the example in FIG.

【0038】対話処理のパターンは、対話制御部40の
備える対話知識部41のデータによるが、以下に、対話
の基本パターンの一例を示す。
The pattern of the dialog processing depends on the data of the dialog knowledge section 41 provided in the dialog control section 40. An example of the basic pattern of the dialog is shown below.

【0039】対話処理の基本パターンの例は、図4に示
すように、対話制御部40による対話文の選択(ステッ
プS401)→対話出力部13を介した対話の出力(ス
テップS402)→対話入力部13を介した対話の入力
(ステップS403)→対話認識部20による対話の認
識(ステップS404)→対話認識結果に基づく利用者
プロファイル情報管理部30による利用者プロファイル
情報の編集・更新(ステップS405)→対話認識結
果、利用者プロファイル情報の編集・更新結果の、対話
制御部40へのフィードバック(ステップS406)の
パターンであり、このパターンを繰り返して対話の流れ
を制御して行く。なお、対話出力部13を介した対話の
出力(ステップS402)→対話入力部13を介した対
話の入力(ステップS403)の間において、利用者か
らの応答を待つ待ち処理や、応答がない場合の再処理な
ど多様な処理パターンがあるが、ここでは、説明を簡単
にするため、合理的な時間内に利用者から応答がある場
合のパターンを示す。
As shown in FIG. 4, an example of the basic pattern of the dialog processing is selection of a dialog sentence by the dialog control unit 40 (step S401) → output of the dialog via the dialog output unit 13 (step S402) → input of the dialog. Dialogue input via the unit 13 (Step S403) → Dialogue recognition by the dialogue recognition unit 20 (Step S404) → Editing and updating of user profile information by the user profile information management unit 30 based on the dialogue recognition result (Step S405) ) → A pattern of feedback (step S406) of the dialog recognition result and the editing / updating result of the user profile information to the dialog control unit 40, and the flow of the dialog is controlled by repeating this pattern. Note that, between the output of the dialogue via the dialogue output unit 13 (step S402) and the input of the dialogue via the dialogue input unit 13 (step S403), a process of waiting for a response from the user or a case where there is no response. Although there are various processing patterns such as reprocessing of the user, here, for simplicity of explanation, a pattern in the case where there is a response from the user within a reasonable time is shown.

【0040】なお、利用者と対話を開始するにあたり、
利用者の存在の検知および利用者が誰であるかを認識す
る必要がある。
In starting a conversation with a user,
It is necessary to detect the presence of the user and to recognize who the user is.

【0041】利用者の存在の検知に関しては、利用者の
存在を検知できる方法であれば広く本発明に適用でき
る。一例としては、対話入力部12であるマイクロフォ
ンを利用して利用者の存在を検知する。例えば、利用者
がコンピュータの近くに移動して来れば利用者の足音や
物音が対話入力部12を介して入力されるので、対話認
識部20が近隣に人間が存在することを認識することが
できる。また、利用者がキャラクタに向かって声をかけ
た場合であれば、当該音声が対話入力部12を介して入
力されるので、対話認識部20が近隣に人間が存在する
ことを認識することができる。他の例としては、赤外線
センサや超音波センサを用いる物体認識も可能である。
さらに、パーソナルコンピュータの起動、キー入力操
作、マウス操作などにより利用者の存在を検知する方法
もある。
Regarding the detection of the presence of the user, any method capable of detecting the presence of the user can be widely applied to the present invention. As an example, the presence of a user is detected using a microphone that is the dialogue input unit 12. For example, if the user moves near the computer, the user's footsteps and noises are input via the dialogue input unit 12, so that the dialogue recognition unit 20 can recognize that there is a human in the vicinity. it can. If the user speaks to the character, the voice is input via the dialogue input unit 12, so that the dialogue recognition unit 20 can recognize that a human is nearby. it can. As another example, object recognition using an infrared sensor or an ultrasonic sensor is also possible.
Furthermore, there is a method of detecting the presence of a user by starting a personal computer, performing a key input operation, operating a mouse, and the like.

【0042】利用者が誰であるかを認識する方法に関し
ても、多様な方法を利用できる。利用者からの呼びかけ
など音声入力があった場合、その内容の中に利用者を特
定できる情報が含まれていれば、利用者を認識すること
ができる。利用者を特定できる情報が含まれていない場
合、対話の冒頭に利用者の名前を質問する対話文を挿入
することにより利用者を認識することも可能である。ま
た、音声による話者認識も可能である。対話認識部20
が、利用者の音声周波数パターンを記憶しておき、入力
された音声周波数パターンとのパターンマッチングを行
うことにより話者認識を行う。
Various methods can be used for recognizing who the user is. If there is a voice input such as a call from the user, the user can be recognized if the content includes information that can specify the user. When the information that can identify the user is not included, the user can be recognized by inserting a dialogue sentence asking the user's name at the beginning of the dialogue. Speaker recognition by voice is also possible. Dialogue recognition unit 20
Performs speaker recognition by storing a user's voice frequency pattern and performing pattern matching with the input voice frequency pattern.

【0043】次に、対話の基本的流れを具体的に説明す
る。以下の対話パターン1を一例として説明する。対話
の内容として利用者のお酒の趣向に関する利用者プロフ
ァイル情報を得るための対話を例に説明する。
Next, the basic flow of the dialog will be specifically described. The following dialogue pattern 1 will be described as an example. A dialog for obtaining user profile information relating to a user's taste of alcohol as a content of the dialog will be described as an example.

【0044】(1)対話制御部40による対話文の選択
(ステップS401) 対話制御部40は出力する対話文を対話知識部41の持
つ対話文から選択する。この例では、お酒の趣向につい
ての対話文を選択する。対話文としては多様なものが考
えられるが、ここでは、「Aさん、お酒は好き?」が選
択されたとする。
(1) Selection of Dialogue Sentence by Dialogue Control Unit 40 (Step S 401) The dialogue control unit 40 selects a dialogue sentence to be output from the dialogue sentence of the dialog knowledge unit 41. In this example, a dialogue sentence about the taste of alcohol is selected. Although various dialogues can be considered, it is assumed here that “Mr. A, do you like alcohol?” Is selected.

【0045】(2)対話出力部13を介した対話の出力
(ステップS402) 次に、対話制御部40が選択した対話文が対話出力部1
3を介し、対話として利用者に提供される。ここでは、
「Aさん、お酒好き?」という対話文が対話出力部13
を介して音声として発せられる。利用者はキャラクタが
話しかけてくれたように感じる。なお、キャラクタイン
タフェース提供部10が表示するキャラクタの口の動き
や表情が、対話出力と併せて変化すると効果的である。
(2) Output of Dialogue Via Dialogue Output Unit 13 (Step S 402) Next, the dialogue sentence selected by the dialogue control unit 40 is output to the dialogue output unit 1.
3 and provided to the user as a dialogue. here,
The dialogue sentence "Mr. A, do you like alcohol?"
Is emitted as voice through The user feels as if the character is speaking. It is effective if the movement and expression of the mouth of the character displayed by the character interface providing unit 10 change together with the dialogue output.

【0046】(3)対話入力部13を介した対話の入力
(ステップS403) 次に、利用者が発する応答を対話入力部12から入力す
る。ここで、利用者自身はキャラクタに対して話しかけ
る。なお、実運用では利用者からの応答を待つ待ち処理
や、応答がない場合の再処理など多様な処理パターンを
持つことが好ましい。ここでは、説明を簡単にするた
め、利用者から「日本酒は大好きだよ。しかし、洋酒は
好きじゃないよ。」という返答があったと仮定する。こ
の返答が対話入力部12を介して入力される。
(3) Input of Dialogue via Dialogue Input Unit 13 (Step S403) Next, a response issued by the user is input from the dialogue input unit 12. Here, the user himself speaks to the character. In actual operation, it is preferable to have various processing patterns such as a waiting process for waiting for a response from a user and a re-processing when there is no response. Here, for the sake of simplicity, it is assumed that the user replies, "I love Japanese sake, but I do not like Western sake." This response is input via the dialog input unit 12.

【0047】(4)対話認識部20による対話の認識
(ステップS404) 次に、対話認識部20が対話入力部12から入力された
対話内容を認識する。ここでは、Aさんの利用者情報と
して「日本酒が大好きである」と「洋酒が好きではな
い」という情報が認識される。
(4) Recognition of Dialog by Dialog Recognition Unit 20 (Step S404) Next, the dialog recognition unit 20 recognizes the content of the dialog input from the dialog input unit 12. Here, the information that "I like sake" and "I do not like Western sake" are recognized as the user information of Mr. A.

【0048】(5)対話認識結果に基づく利用者プロフ
ァイル情報管理部30による利用者プロファイル情報の
編集・更新(ステップS405) 対話認識結果として、「日本酒が大好きである」と「洋
酒が好きではない」という利用者情報が、利用者プロフ
ァイル情報管理部30に渡され、利用者プロファイル情
報管理部30は、利用者プロファイル情報記憶部31内
の利用者プロファイル情報を更新する。
(5) Editing / Updating of User Profile Information by User Profile Information Management Unit 30 Based on Dialogue Recognition Result (Step S405) As dialogue recognition results, "I love sake" and "I don't like Western sake" Is passed to the user profile information management unit 30, and the user profile information management unit 30 updates the user profile information in the user profile information storage unit 31.

【0049】(6)対話認識結果、利用者プロファイル
情報の編集・更新結果の、対話制御部40へのフィード
バック(ステップS406) 利用者プロファイル情報記憶部31内の利用者プロファ
イル情報が更新された結果を、次の対話文選択に役立て
るための情報として対話制御部40へフィードバックす
る。
(6) Feedback of Dialogue Recognition Result and Edit / Update of User Profile Information to Dialogue Control Unit 40 (Step S406) Result of Update of User Profile Information in User Profile Information Storage Unit 31 Is fed back to the dialog control unit 40 as information for helping the next dialogue sentence selection.

【0050】例えば、利用者プロファイル情報における
お酒の趣向に関する情報に属する情報のうち、空欄で残
っている情報、例えば、「銘柄に関する好み」の情報が
空欄である旨が対話制御部40へフィードバックされ
る。
For example, among the information belonging to the information on the taste of alcohol in the user profile information, information that is left blank, for example, information that “preference about brand” is blank is fed back to the interactive control unit 40. Is done.

【0051】対話制御部40は、このフィードバック情
報を、将来の対話文選択に反映させることができる。対
話の流れの中で「銘柄に関する好み」を質問する対話
文、例えば、「銘柄は何が好きなの?」を選択すること
ができる。なお、この対話文の選択は上記ステップS4
01に相当する。つまり、対話制御部40による対話文
の選択(ステップS401)から、利用者プロファイル
情報の編集・更新結果の対話制御部40へのフィードバ
ック(ステップS406)のパターンを繰り返すことに
より、対話を進めることができる。
The dialogue control section 40 can reflect this feedback information in future dialogue sentence selection. In the flow of the dialogue, a dialogue sentence for asking "preference about the brand", for example, "What does the brand like?" Can be selected. Note that the selection of the dialogue sentence is performed in step S4.
Equivalent to 01. In other words, the dialogue can be advanced by repeating the pattern from the selection of the dialogue sentence by the dialogue control unit 40 (step S401) to the feedback of the edit / update result of the user profile information to the dialogue control unit 40 (step S406). it can.

【0052】この対話パターン1を継続する場合は、ス
テップS401に戻って処理を繰り返す。
When the interactive pattern 1 is continued, the process returns to step S401 to repeat the processing.

【0053】なお、ステップS406の後、相づち文を
挿入することも効果的である。ここで相づち文とは、利
用者からの応答に対する自然な相づちであり、例えば、
「そうなんだー」、「そうですね」など、自然人の間で
交わされる相づち文をいう。
It is also effective to insert a sentence after step S406. Here, the sentence sentence is a natural sentence for a response from the user, for example,
This is a sentence that is exchanged between natural people, such as "yes" and "yes".

【0054】相づち文を挿入することにより、本システ
ム側から利用者へ一方的に質問文を浴びせ続けるという
状態を回避することができる。
By inserting the sentence, it is possible to avoid a situation where the present system unilaterally continues to give the user a question sentence.

【0055】上記の対話パターン1は一例であり、対話
パターンとしては、他のバリエーションも可能である。
The above-mentioned conversation pattern 1 is an example, and other variations are possible as the conversation pattern.

【0056】次に、モニタ部による利用者情報収集処理
を説明する。
Next, user information collection processing by the monitor unit will be described.

【0057】モニタ部50がモニタするデータには多様
なものが想定できることは既に説明したが、ここでは、
利用者端末のネットワーク送受信データをモニタする手
段を備え、利用者が電子決済したトランザクションデー
タをモニタして、利用者情報を取り込む例を示す。
Although it has already been described that various data can be assumed for the data monitored by the monitor unit 50, here,
An example will be described in which a means for monitoring network transmission / reception data of a user terminal is provided, and transaction data electronically settled by a user is monitored to acquire user information.

【0058】図5は、利用者端末のネットワーク送受信
データをモニタする手段を備えた構成例である。図1の
構成に比べ、図5の構成では利用者は電子決済を処理す
る電子決済端末200を用いて電子決済処理を実行して
いる。図5には図示していないが、電子決済端末200
は通信インタフェースを備え、ネットワークを介して、
外部のサイトと情報をやり取りしている。モニタ部50
は、電子決済端末200の送受信データをモニタする構
成となっており、電子決済データを取り込む。
FIG. 5 shows an example of a configuration provided with means for monitoring network transmission / reception data of a user terminal. Compared with the configuration of FIG. 1, in the configuration of FIG. 5, the user executes the electronic payment processing using the electronic payment terminal 200 that processes the electronic payment. Although not shown in FIG. 5, the electronic payment terminal 200
Has a communication interface, via a network,
Exchanges information with external sites. Monitor unit 50
Is configured to monitor transmission / reception data of the electronic settlement terminal 200, and takes in electronic settlement data.

【0059】図6は、モニタ部50が、電子決済端末2
00の送受信データをモニタして取り込んだ電子決済デ
ータの一例を示す図である。図6に示した例は、Aさん
が発注した酒類商品購入に関する電子決済データであ
り、支払先、購入商品名、メーカ名、個数、金額、納品
予定日、決済方法に関するデータなどが含まれており、
モニタ部50は、これらのデータを取り込む。図6に示
した例では、AさんがB商品販売サイトに対して、メー
カD社の洋酒Cを、個数“1本”、金額“1万円”、納
品予定“2001年10月1日”、決済方法“口座引き落と
し”により購入したという情報が取り込まれる。なお、
購入商品が商品コード、メーカ名がメーカコードで与え
られている場合であっても、モニタ部50は、それらコ
ード情報に関するデータを保持し、コード情報を認識で
きることが好ましい。
FIG. 6 shows that the monitor unit 50 is connected to the electronic payment terminal 2.
It is a figure which shows an example of the electronic payment data which monitored and received the transmission / reception data of 00. The example shown in FIG. 6 is electronic payment data related to the purchase of alcoholic beverages ordered by Mr. A, and includes data related to a payee, a purchased product name, a maker name, a quantity, an amount, a scheduled delivery date, and a payment method. Yes,
The monitor 50 captures these data. In the example shown in FIG. 6, Mr. A sends a liquor C of maker D to the product sales site B in quantity “1 bottle”, amount “10,000 yen”, scheduled delivery “October 1, 2001” Then, the information that the purchase was made by the settlement method “debit withdrawal” is fetched. In addition,
Even when a purchased product is given a product code and a manufacturer name by a manufacturer code, it is preferable that the monitor unit 50 can retain data on the code information and recognize the code information.

【0060】上記の例は、利用者端末のネットワーク送
受信データをモニタする手段を備えることにより、利用
者が電子決済したトランザクションデータをモニタして
取り込む例であったが、同様に、利用者が閲覧したウェ
ブサイト情報や、電子メールデータを取り込むことがで
きる。さらに、モニタ部50が、対話入力部12と連動
することにより、電話の会話内容を観察して取り込むこ
とも可能である。また、モニタ部50がカメラを備え、
利用者の行動を観察して解析することにより、利用者の
行為内容を示すデータを観察して取り込むこともでき
る。もちろん、それらの組み合わせであっても良い。
The above example is an example in which a means for monitoring network transmission / reception data of a user terminal is provided to monitor and capture transaction data electronically settled by the user. Web site information and e-mail data can be imported. Further, the monitor unit 50 can observe and capture the contents of the telephone conversation by interlocking with the dialog input unit 12. Further, the monitor unit 50 includes a camera,
By observing and analyzing the behavior of the user, it is also possible to observe and capture data indicating the details of the behavior of the user. Of course, a combination thereof may be used.

【0061】上記のように、利用者との対話による利用
者のプロファイル情報の収集処理や、利用者観察による
利用者情報の収集処理を経て、利用者プロファイル情報
記憶部31内の利用者プロファイル情報が編集、更新さ
れ、対話制御部40は、利用者プロファイル情報の内容
を基に対話の流れを制御して行くが、以下のような、新
たに収集された利用者情報とその時点で利用者プロファ
イル情報として登録されている情報との照合処理は、利
用者の趣向の変化や何らかのイベントの発生を検知する
上で効果的である。
As described above, the user profile information is collected in the user profile information storage unit 31 through the collection process of the user profile information by the dialogue with the user and the collection process of the user information by the user observation. Is updated and updated, and the dialogue control unit 40 controls the flow of the dialogue based on the contents of the user profile information, and the newly collected user information and the user The collation processing with the information registered as the profile information is effective in detecting a change in the user's taste or occurrence of some event.

【0062】利用者プロファイル情報記憶部31内の利
用者プロファイル情報は、過去から現在までに収集され
た利用者に関する情報である。対話認識部20や、モニ
タ部50を介して、新たな利用者情報が次々と、利用者
プロファイル情報管理部30に供給される。ここで、照
合部60は、モニタ部50より得た利用者情報の内容ま
たは対話認識部20による認識結果と、利用者プロファ
イル情報管理部30の利用者プロファイル情報の内容と
を照合する。両者を照合して、前者の内容が後者の内容
と不一致である場合、つまり、新たに観察された利用者
情報が、利用者プロファイル情報として登録されている
情報と異なる場合は、利用者の趣向の変化や、何らかの
イベントの発生として捉えることが可能である。
The user profile information in the user profile information storage unit 31 is information on the user collected from the past to the present. New user information is supplied to the user profile information management unit 30 one after another via the dialog recognition unit 20 and the monitor unit 50. Here, the collation unit 60 collates the content of the user information obtained from the monitor unit 50 or the recognition result by the dialog recognition unit 20 with the content of the user profile information of the user profile information management unit 30. If both are compared and the former content does not match the latter content, that is, if the newly observed user information is different from the information registered as user profile information, Change or the occurrence of some event.

【0063】図6の例では、Aさんは、電子決済により
洋酒を購入した。しかし、上記の対話処理の例によれ
ば、利用者プロファイル情報記憶部31内の利用者プロ
ファイル情報として、「日本酒が大好きである」と「洋
酒が好きではない」という情報が格納されている。それ
にもかかわらず、Aさんは、電子決済により洋酒を購入
している。これは、Aさん自身のお酒に関する趣向の変
化か、洋酒が必要となる何らかのイベントの発生として
捉えることができるわけである。
In the example of FIG. 6, Mr. A has purchased Western liquor by electronic payment. However, according to the example of the above-described interactive processing, information that “I like sake” and “I do not like Western sake” are stored as user profile information in the user profile information storage unit 31. Nevertheless, Mr. A buys Western liquor by electronic payment. This can be understood as a change in the taste of Mr. A's own liquor or the occurrence of some event that requires Western liquor.

【0064】照合部60は、両者を照合する。前者は
「洋酒が好きではない」という洋酒に関する否定情報で
あり、後者は、「洋酒の購入」という洋酒に関する肯定
情報である。照合部60は両者の不一致を検出し、対話
制御部40に当該不一致である旨の情報をフィードバッ
クする。対話制御部40は照合部60による照合結果に
基づいて利用者への対話内容を制御する。例えば、趣向
の確認のための質問文として「Aさん、洋酒は好きでは
ないはずでしたよね?」という質問文を選択する。ここ
では例えば、Aさんから「購入した洋酒Cは、私のお父
さんへの贈り物だよ。お父さんの誕生日プレゼントだ
よ。」という返答が得られたとすると、洋酒の購入はA
さんの趣向の変化ではなく、Aさんの父の誕生日という
イベントがあるという情報が収集されるわけである。
The collating unit 60 collates the two. The former is negative information about Western liquor that "I do not like Western liquor," and the latter is positive information about Western liquor that is "purchase of Western liquor." The collation unit 60 detects a mismatch between the two, and feeds back information indicating the mismatch to the dialog control unit 40. The dialog control unit 40 controls the content of the dialog with the user based on the result of the comparison by the comparison unit 60. For example, a question sentence "Mr. A, you did not like Western sake?" Is selected as a question sentence for confirming the taste. Here, for example, if a reply is obtained from Mr. A that “The purchased sake C is a gift to my dad. It is a dad's birthday present.”
The information is collected that there is an event called Mr. A's father's birthday instead of a change in his taste.

【0065】上記の洋酒購入の例は、照合部60による
照合のパターンの一例であり、照合部60による照合の
パターンとしては多様なものが想定される。利用者プロ
ファイル情報の内容と新たに検知された利用者情報の内
容とを照合することにより、購入個数の不一致、金額の
不一致(商品グレードの変化)なども捉えることができ
る。この不一致情報に基づいて対話制御部40が質問文
を適宜選択すれば良い。
The above-mentioned example of the purchase of Western sake is an example of the pattern of the collation by the collation unit 60, and various patterns of the collation by the collation unit 60 are assumed. By comparing the content of the user profile information with the content of the newly detected user information, it is possible to catch a mismatch in the number of purchases, a mismatch in the amount of money (change in product grade), and the like. The dialog control unit 40 may appropriately select a question sentence based on this mismatch information.

【0066】(実施形態2)本発明の実施形態2のキャ
ラクタインタフェースシステムは、キャラクタインタフ
ェースを介した利用者との対話に加え、対話を通じて利
用者から質問や依頼を受け付け、その内容を解析し、適
切なデータベースやサービスにアクセスしてそれらに対
する回答または応答を得て、対話を通じて回答または応
答を提供するものである。
(Embodiment 2) The character interface system according to Embodiment 2 of the present invention accepts a question or a request from a user through the dialogue in addition to the dialogue with the user through the character interface, and analyzes the contents thereof. Accessing appropriate databases and services to get answers or responses to them, and providing answers or responses through dialogue.

【0067】図7は、本発明の実施形態2のキャラクタ
インタフェースシステム100bの概略構成を示す図で
ある。
FIG. 7 is a diagram showing a schematic configuration of the character interface system 100b according to the second embodiment of the present invention.

【0068】図1の構成に比べ、データベース300ま
たはサービス310へのアクセス部70を備えている。
As compared with the configuration shown in FIG. 1, an access unit 70 for accessing the database 300 or the service 310 is provided.

【0069】実施形態2のキャラクタインタフェースの
基本動作は以下の通りである。
The basic operation of the character interface according to the second embodiment is as follows.

【0070】ここでは、利用者からの質問・依頼に対す
る対話パターンの例として、以下の対話パターン2を説
明する。
Here, the following dialogue pattern 2 will be described as an example of a dialogue pattern for a question / request from a user.

【0071】(1)対話入力部13を介した利用者から
の質問または依頼の入力(ステップS801) まず、利用者が質問や依頼を対話入力部12から入力す
る。ここで、利用者はキャラクタインタフェース提供部
10が表示するキャラクタに対して話しかけている。例
えば、Aさんから「今日の私のスケジュールは?」とい
うスケジュール確認の問い合わせがあったとする。
(1) Input of Question or Request from User via Dialog Input Unit 13 (Step S 801) First, the user inputs a question or request from the dialog input unit 12. Here, the user is talking to the character displayed by the character interface providing unit 10. For example, suppose that there is a schedule confirmation inquiry from Mr. A, "What is my schedule today?"

【0072】(2)対話認識部20による対話の認識
(ステップS802) 次に、対話認識部20が対話入力部12から入力された
質問内容または依頼内容を解析して認識する。ここで
は、Aさんによる「スケジュールの確認依頼」が認識さ
れる。
(2) Dialogue Recognition by Dialogue Recognition Unit 20 (Step S 802) Next, the dialogue recognition unit 20 analyzes and recognizes the contents of a question or request input from the dialogue input unit 12. Here, the "request for confirmation of schedule" by Mr. A is recognized.

【0073】(3)対話認識結果に基づく利用者プロフ
ァイル情報管理部30による利用者プロファイル情報の
編集・更新(ステップS803) 対話認識結果として、「スケジュールの確認依頼」とい
う情報が、利用者プロファイル情報管理部30に渡さ
れ、利用者プロファイル情報管理部30は、利用者プロ
ファイル情報記憶部31内の利用者プロファイル情報を
更新する。
(3) Editing / Updating User Profile Information by User Profile Information Management Unit 30 Based on Dialogue Recognition Result (Step S 803) As a dialogue recognition result, information “schedule confirmation request” is entered as user profile information. The user profile information is passed to the management unit 30, and the user profile information management unit 30 updates the user profile information in the user profile information storage unit 31.

【0074】(4)対話認識結果、利用者プロファイル
情報の編集・更新結果の、対話制御部40へのフィード
バック(ステップS804) 利用者プロファイル情報記憶部31内の利用者プロファ
イル情報が更新された結果を対話制御部40へフィード
バックする。
(4) Feedback of Dialogue Recognition Result and Editing / Updating Result of User Profile Information to Dialogue Control Unit 40 (Step S804) Result of Update of User Profile Information in User Profile Information Storage Unit 31 Is fed back to the dialogue control unit 40.

【0075】ここでは、大きく次の2つの処理に分かれ
る。第1の処理は、利用者プロファイル情報記憶部31
内に「Aさんのスケジュール情報」が格納されていた場
合の処理である。第2の処理は、利用者プロファイル情
報記憶部31内に「Aさんのスケジュール情報」が格納
されておらず、アクセス部70を通じて外部のデータベ
ース300またはサービス310にアクセスして回答ま
たは応答を得る処理である。以下は、第2の処理を中心
に説明する。
Here, the process is roughly divided into the following two processes. The first process is a user profile information storage unit 31
This is the process when “A's schedule information” is stored in the table. The second process is a process in which “schedule information of Mr. A” is not stored in the user profile information storage unit 31 and the external database 300 or the service 310 is accessed through the access unit 70 to obtain a response or a response. It is. The following mainly describes the second processing.

【0076】(5)アクセス部70による外部のデータ
ベース300またはサービス310へのアクセス(ステ
ップS805) 対話制御部40は、アクセス部70を通じて、利用者か
らの質問または依頼の回答または応答を得るため、外部
のデータベース300またはサービス310にアクセス
する。ここでは、利用者スケジュールを管理しているデ
ータベース300にアクセスすることとし、データベー
ス300から利用者Aさんのスケジュール情報が得られ
たとする。
(5) Access to External Database 300 or Service 310 by Access Unit 70 (Step S805) The dialogue control unit 40 obtains an answer or response to a question or request from the user through the access unit 70. Access an external database 300 or service 310. Here, it is assumed that the database 300 that manages the user schedule is accessed, and the schedule information of the user A is obtained from the database 300.

【0077】(6)アクセス結果に基づく利用者プロフ
ァイル情報管理部30による利用者プロファイル情報の
編集・更新(ステップS806) 利用者プロファイル情報管理部30は、アクセス部70
を介してデータベース300またはサービス310から
得られた回答または応答情報を基に、利用者プロファイ
ル情報の編集・更新を行う。ここでは、利用者Aさんの
スケジュール情報が利用者プロファイル情報として追加
更新されたとする。
(6) Editing / Updating of User Profile Information by User Profile Information Management Unit 30 Based on Access Result (Step S806) The user profile information management unit 30
The user profile information is edited and updated based on the answer or the response information obtained from the database 300 or the service 310 via. Here, it is assumed that the schedule information of user A has been additionally updated as user profile information.

【0078】(7)利用者プロファイル情報の編集・更
新結果の、対話制御部40へのフィードバック(ステッ
プS807) 利用者プロファイル情報記憶部31内の利用者プロファ
イル情報が更新された結果を対話制御部40へフィード
バックする。
(7) Feedback of Editing / Updating Result of User Profile Information to Dialog Control Unit 40 (Step S807) The result of updating the user profile information in the user profile information storage unit 31 is referred to as the dialog control unit. Feedback to 40.

【0079】ここでは、利用者プロファイル情報記憶部
31内に「Aさんのスケジュール情報」が格納されてい
る旨が対話制御部40へフィードバックされる。ここ
で、上記(4)の第1の処理と同様の状態となった。
Here, the fact that “schedule information of Mr. A” is stored in the user profile information storage unit 31 is fed back to the dialog control unit 40. Here, the state becomes the same as the first processing of the above (4).

【0080】(8)対話制御部40による、利用者の質
問または依頼に対する回答または応答の対話文の生成
(ステップS808) 対話制御部40は、利用者プロファイル情報管理部30
とやり取りしつつ、利用者からの質問または依頼に対す
る回答または応答に対する対話文を生成する。ここで
は、Aさんの「スケジュールの確認依頼」に対する回答
内容に対応する対話文を生成することとなる。例えば、
利用者プロファイル情報管理部30からAさんのスケジ
ュール情報を基に、「10時から会議の予定だよ。」、
「12時からBさんと昼食の予定だよ。」というような
対話文を生成・選択する。
(8) The dialogue control unit 40 generates a dialogue sentence as an answer or response to the user's question or request (step S808).
Generates a dialogue sentence to answer or respond to a question or request from the user while interacting with the user. Here, a dialogue sentence corresponding to the content of the answer to Mr. A's “request for confirmation of schedule” is generated. For example,
Based on the schedule information of Mr. A from the user profile information management unit 30, "A meeting is scheduled from 10:00."
Generate and select a dialogue sentence such as "Lunch with Mr. B from 12:00."

【0081】(9)対話出力部13を介した対話の出力
(ステップS809) 生成・選択された対話文は、対話出力部13から音声出
力される。Aさんはキャラクタが答えてくれたように感
じる。なお、対話出力とともにキャラクタの口の動きや
表情を変化させると効果的である。
(9) Output of Dialogue via Dialogue Output Unit 13 (Step S 809) The generated and selected dialogue sentence is output from the dialogue output unit 13 by voice. A feels like the character answered. It is effective to change the mouth movement and expression of the character together with the dialogue output.

【0082】この対話パターン2が継続される場合は、
ステップS801に戻って当該対話パターンが繰り返さ
れる。
When this conversation pattern 2 is continued,
Returning to step S801, the dialog pattern is repeated.

【0083】上記の対話パターン2の流れは一例であ
り、利用者から質問・依頼を受けて回答・応答する対話
パターンとして他のバリエーションも可能である。
The flow of the above-mentioned dialogue pattern 2 is an example, and other variations are possible as a dialogue pattern which receives a question / request from a user and answers / responds.

【0084】(実施形態3)本発明の実施形態3のキャ
ラクタインタフェースシステムは、利用者が移動しても
利用者の位置の近傍のアクセス可能なプラットフォーム
にキャラクタインタフェースを表示し、利用者が移動し
た場所においてキャラクタインタフェースを提供するも
のである。本発明のキャラクタインタフェースは実際の
動物のペットの如く、利用者の移動に伴って移動するこ
とができる。従来のエージェントシステムの提供する利
用者インタフェースは、特定の利用者端末に固定的にイ
ンストールされていたり、利用者自身がネットワーク上
の特定アドレスにアクセスせざるを得ないものであった
が、本発明の提供するキャラクタインタフェースは、自
律的に利用者の五感の及ぶ近傍のプラットフォームに移
動し、利用者に対してキャラクタインタフェースを提供
し続けることができる。
(Embodiment 3) The character interface system according to Embodiment 3 of the present invention displays a character interface on an accessible platform near the position of the user even if the user moves, and the user moves. It provides a character interface at the location. The character interface of the present invention can move as the user moves, like a real animal pet. The user interface provided by the conventional agent system is fixedly installed on a specific user terminal, or the user himself has to access a specific address on the network. Can autonomously move to a platform near the user's five senses and continue to provide the user with a character interface.

【0085】例えば、利用者がテレビジョン放送を見て
いるときには、キャラクタインタフェース構築データが
テレビジョン装置に転送され、その表示部上に実施形態
1や2で説明したキャラクタを表示してキャラクタイン
タフェースを提供する。また、利用者が表示部付きのイ
ンテリジェント冷蔵庫の前に移動すれば、キャラクタイ
ンタフェース構築データを当該インテリジェント冷蔵庫
に転送し、その表示部上に実施形態1や2で説明したキ
ャラクタを表示してキャラクタインタフェースを提供す
る。このように、利用者の移動に伴ってキャラクタイン
タフェースが移動して適宜対話することにより、自然な
会話を通じて、利用者の日常行動に基づく情報も含めた
利用者プロファイル情報を収集できる。
For example, when the user is watching a television broadcast, the character interface construction data is transferred to the television device, and the characters described in the first and second embodiments are displayed on the display unit to display the character interface. provide. If the user moves to the front of the intelligent refrigerator with a display, the character interface construction data is transferred to the intelligent refrigerator, and the characters described in the first and second embodiments are displayed on the display and the character interface is displayed. I will provide a. As described above, by the character interface moving along with the user's movement and appropriately interacting, the user profile information including the information based on the daily activities of the user can be collected through a natural conversation.

【0086】図9は、本発明の実施形態3のキャラクタ
インタフェースシステム100cの概略構成を示す図で
ある。
FIG. 9 is a diagram showing a schematic configuration of the character interface system 100c according to the third embodiment of the present invention.

【0087】図1の構成に比べ、利用者位置検知部8
0、プラットフォーム検知部81、キャラクタインタフ
ェース構築データ転送部82を備えている。キャラクタ
インタフェース構築データがプラットフォーム400に
転送され、プラットフォーム400上にキャラクタイン
タフェース提供部10aが構築され、キャラクタインタ
フェースが提供される。
As compared with the configuration shown in FIG.
0, a platform detection unit 81, and a character interface construction data transfer unit 82. The character interface construction data is transferred to the platform 400, the character interface providing unit 10a is constructed on the platform 400, and the character interface is provided.

【0088】利用者位置検知部80は、利用者の位置を
検知する部分である。
The user position detector 80 is a part for detecting the position of the user.

【0089】プラットフォーム検知部81は、利用者位
置検知部80が検知した利用者の位置の近傍のアクセス
可能なプラットフォームを検知する部分である。
The platform detecting section 81 is a section for detecting an accessible platform near the position of the user detected by the user position detecting section 80.

【0090】キャラクタインタフェース構築データ転送
部82は、キャラクタインタフェース構築データをプラ
ットフォーム検知部81が検知した利用者近傍のプラッ
トフォームに転送する制御を行う部分である。
The character interface construction data transfer section 82 is a section for controlling the transfer of the character interface construction data to the platform near the user detected by the platform detection section 81.

【0091】400が利用者移動先のプラットフォーム
である。プラットフォーム400は、有線または無線で
ネットワークに接続された、コンピュータシステム、テ
レビジョン装置、家庭用電気機器、携帯電話など多種多
様な電子機器が含まれる。なお、有線には家屋内の電気
配線も含まれる。
Reference numeral 400 denotes a platform to which the user moves. The platform 400 includes a wide variety of electronic devices, such as computer systems, television devices, household electrical appliances, and mobile phones, which are connected to a network by wire or wirelessly. It should be noted that the wired includes electric wiring in a house.

【0092】実施形態3のキャラクタインタフェースの
基本動作は以下の通りである。
The basic operation of the character interface according to the third embodiment is as follows.

【0093】(1)利用者位置検知部80による利用者
の位置検知(ステップS1001) 利用者の位置検知手段としては多様なものが想定され
る。例えば、赤外線センサ、超音波センサなどのセンサ
類により利用者の位置を検知することができる。また、
利用者が無線発信機を持ち歩き、無線信号を受信するこ
とにより利用者の位置を検知することも可能である。さ
らに、利用者が移動先のプラットフォームのキーを押下
することでも移動先を検知することも可能であり、移動
先のプラットフォームのマイクロフォンによる音声認識
による利用者検知も可能である。ここでは、例えば、A
さんが、無線発信機を持ち歩き、無線信号を受信するこ
とにより、自宅の表示部付きのインテリジェント冷蔵庫
の前に移動したとし、当該位置(X1,Y1)が検知さ
れたとする。
(1) User Position Detection by User Position Detecting Unit 80 (Step S1001) Various types of user position detecting means are assumed. For example, the position of the user can be detected by sensors such as an infrared sensor and an ultrasonic sensor. Also,
It is also possible for a user to carry a wireless transmitter and detect the position of the user by receiving a wireless signal. Furthermore, the user can also detect the destination by pressing a key of the destination platform, and the user can be detected by voice recognition using a microphone of the destination platform. Here, for example, A
It is assumed that Mr. has moved in front of an intelligent refrigerator with a display unit at home by carrying a wireless transmitter and receiving a wireless signal, and the position (X1, Y1) has been detected.

【0094】(2)プラットフォーム検知部81によ
る、利用者の位置の近傍のアクセス可能なプラットフォ
ームの検知(ステップS1002) プラットフォーム検知部81は、利用者位置検知部80
による利用者の位置検知結果を受け、その位置の近傍で
アクセス可能なプラットフォームを検知する。前提とし
て、各プラットフォームの位置情報が利用可能でなけれ
ばならない。利用者の位置情報とプラットフォームの位
置情報とを比較し、近傍のプラットフォームを検知す
る。ここでは、Aさんの位置情報(X1,Y1)に対し
て、物理的にもっとも近い位置情報(X1’,Y1’)
を持つインテリジェント冷蔵庫がアクセス可能な近傍の
プラットフォームであると検知されたとする。
(2) Detection of an accessible platform near the position of the user by the platform detection unit 81 (step S1002) The platform detection unit 81 detects the user position detection unit 80
Receiving the result of detecting the user's position, and detecting a platform accessible near the position. As a premise, location information for each platform must be available. It compares the user's location information with the platform's location information and detects nearby platforms. Here, position information (X1 ′, Y1 ′) physically closest to Mr. A's position information (X1, Y1)
Suppose that an intelligent refrigerator with is detected as an accessible nearby platform.

【0095】(3)キャラクタインタフェース構築デー
タ転送部82によるキャラクタインタフェース構築デー
タの転送(ステップS1003) キャラクタインタフェース構築データ転送部82は、プ
ラットフォーム検知部81が検知した利用者近傍のプラ
ットフォームに対して、キャラクタインタフェース構築
データを転送する。
(3) Transfer of Character Interface Construction Data by Character Interface Construction Data Transfer Unit 82 (Step S 1003) The character interface construction data transfer unit 82 transmits a character to the platform near the user detected by the platform detection unit 81. Transfer interface construction data.

【0096】(4)転送先のプラットフォーム上におけ
るキャラクタインタフェース提供部10aの構築(ステ
ップS1004) キャラクタインタフェース提供部10aが移動先のプラ
ットフォームに装備されている入出力装置である、表示
装置、マイクロフォン、スピーカ、キーボード、マウ
ス、各種ボタンなどを利用して構築される。移動先のプ
ラットフォーム上のデバイスと連動して動作する必要が
あるので移動先のプラットフォームに装備されている入
出力装置のインタフェース情報が既知であるか、取得で
きることが前提となる。
(4) Construction of Character Interface Providing Unit 10a on Transfer Destination Platform (Step S1004) A display device, a microphone, and a speaker are input / output devices equipped with the character interface providing unit 10a on the moving destination platform. It is built using a keyboard, mouse, and various buttons. Since it is necessary to operate in conjunction with the device on the destination platform, it is assumed that the interface information of the input / output device mounted on the destination platform is known or can be obtained.

【0097】移動先における、利用者とキャラクタイン
タフェースの対話は、実施形態1または2で説明した対
話パターンや他の対話パターンのバリエーションにより
進めて行く。
The dialogue between the user and the character interface at the destination is proceeded according to the variation of the interaction pattern described in the first or second embodiment or another interaction pattern.

【0098】(実施形態4)本発明の実施形態4のキャ
ラクタインタフェースシステムは、キャラクタインタフ
ェースを通じて利用者に対して効果的な宣伝を行うもの
である。
(Embodiment 4) A character interface system according to Embodiment 4 of the present invention is intended to effectively advertise to a user through a character interface.

【0099】本発明のキャラクタインタフェースシステ
ムは、実施形態1から3までに説明したように、利用者
プロファイル情報を編集・更新し、利用者の趣向情報や
利用者のイベントに関する情報を保持しており、さら
に、キャラクタインタフェースを介して利用者と対話で
きる仕組みであるので、商品などの宣伝を行うメディア
としては有効である。
As described in the first to third embodiments, the character interface system of the present invention edits / updates user profile information and holds user's taste information and information on user events. Further, since the system is capable of interacting with the user via the character interface, it is effective as a media for advertising products and the like.

【0100】図11は、本発明の実施形態4のキャラク
タインタフェースシステム100dの概略構成を示す図
である。図1の構成に比べ、宣伝部90を備えている。
宣伝部90は、宣伝対象に関する情報を備えた、また
は、宣伝対象に関する情報源にアクセスして情報を取得
できるものである。
FIG. 11 is a diagram showing a schematic configuration of a character interface system 100d according to the fourth embodiment of the present invention. An advertisement unit 90 is provided as compared with the configuration of FIG.
The advertising unit 90 is provided with information on an advertising target, or can access an information source on an advertising target to acquire information.

【0101】宣伝部90は、宣伝対象の設定を受け付け
る部分と、宣伝対象に関する情報を記憶する記憶部、ま
たは、宣伝対象に関する情報源へのアクセス手段を備え
た構成となっている。
The advertising section 90 is provided with a portion for accepting the setting of the advertising target, a storage section for storing information about the advertising target, or a means for accessing an information source on the advertising target.

【0102】利用者とキャラクタインタフェースの対話
において、対話制御部40が、対話知識と宣伝部90か
ら供給された宣伝対象に関する情報とを基に、適宜、宣
伝対象に関する宣伝文を選択し、利用者への対話の中に
宣伝を盛り込む。
In the dialogue between the user and the character interface, the dialogue control unit 40 appropriately selects an advertisement sentence regarding the advertisement target based on the dialog knowledge and the information regarding the advertisement target supplied from the advertisement unit 90, and Include advertising in your dialogue with.

【0103】なお、本発明の実施形態4のキャラクタイ
ンタフェースシステムを用いた宣伝サービスを利用した
い企業などに対して宣伝にかかる料金を徴収するビジネ
スモデルを構築することもできる。例えば、宣伝部90
への宣伝対象の登録に対して料金を徴収したり、利用者
との対話の中で宣伝対象についての宣伝回数に応じて料
金を徴収したりすることができる。
It is also possible to construct a business model for collecting a charge for an advertisement to a company or the like who wants to use an advertisement service using the character interface system according to the fourth embodiment of the present invention. For example, the advertising unit 90
It is possible to collect a fee for registration of an advertising target in the system, or to collect a fee according to the number of advertisements for the advertising target in a dialogue with a user.

【0104】なお、本発明の実施形態4のキャラクタイ
ンタフェースシステムの基本動作は以下の通りである。
まず、前処理として、宣伝部90への宣伝対象の登録、
宣伝部90への宣伝対象に関する情報の格納、または、
宣伝対象に関する情報源へのアクセス手段の設定などを
行っておく。
The basic operation of the character interface system according to the fourth embodiment of the present invention is as follows.
First, as preprocessing, registration of an advertisement target in the advertisement unit 90,
Storage of information on the target of the advertisement in the advertisement unit 90, or
Set up access methods to information sources related to the advertisement.

【0105】次に、実施形態1で説明した、対話制御部
40による対話文の選択(ステップS401)→対話出
力部13を介した対話の出力(ステップS402)→対
話入力部13を介した対話の入力(ステップS403)
→対話認識部20による対話の認識(ステップS40
4)→対話認識結果に基づく利用者プロファイル情報管
理部30による利用者プロファイル情報の編集・更新
(ステップS405)→対話認識結果、利用者プロファ
イル情報の編集・更新結果の、対話制御部40へのフィ
ードバック(ステップS406)までは同様の流れで良
い。
Next, as described in the first embodiment, selection of a dialogue sentence by the dialogue control unit 40 (step S401) → output of a dialogue via the dialogue output unit 13 (step S402) → dialogue via the dialogue input unit 13 Input (step S403)
→ Recognition of the dialogue by the dialogue recognition unit 20 (step S40)
4) Editing / updating user profile information by the user profile information management unit 30 based on the dialogue recognition result (step S405) → sending the dialogue recognition result and user profile information editing / updating result to the dialogue control unit 40 A similar flow may be used up to the feedback (step S406).

【0106】次に、対話制御部40が、フィードバック
情報を受け、次の対話として、宣伝部90に登録された
宣伝対象に関する宣伝文を選択できるか否かを判断し
(ステップS1201)、宣伝文を選択できる場合(ス
テップS1201:Y)、宣伝対象に関する情報を宣伝
部90から取得し(ステップS1202)、宣伝文を選
択・生成する(ステップS1203)。このステップS
1203の後、ステップS402以降の処理ステップを
実行する。宣伝文を選択できない場合(ステップS12
01:N)、通常の対話を継続すべく、ステップS40
1から処理ステップを実行する。
Next, the dialogue control unit 40 receives the feedback information, and determines whether or not it is possible to select, as the next dialogue, a publicity sentence relating to the advertisement registered in the publicity unit 90 (step S1201). Can be selected (step S1201: Y), information about the advertisement target is acquired from the advertisement unit 90 (step S1202), and an advertisement is selected and generated (step S1203). This step S
After step 1203, the processing steps after step S402 are executed. When the advertisement cannot be selected (step S12)
01: N), to continue the normal dialogue, step S40
Execute processing steps from 1.

【0107】(実施形態5)本発明のキャラクタインタ
フェースシステムは、上記に説明した構成を実現する処
理ステップを記述したプログラムを提供し、コンピュー
タにインストールすることにより構築することができ
る。本発明のキャラクタインタフェースシステムを実現
する処理ステップを備えたプログラムは、図13に図示
した記録媒体の例に示すように、CD−ROM1002
やフレキシブルディスク1003等の可搬型記録媒体1
001だけでなく、ネットワーク上にある記録装置内の
記録媒体1000や、コンピュータのハードディスクや
RAM等の記録媒体1005などに記録して提供するこ
とができ、さらには、ネットワークを通じてダウンロー
ドすることも可能である。当該プログラムは、実行時に
はコンピュータ1004上にローディングされ、実行さ
れる。
(Embodiment 5) The character interface system of the present invention can be constructed by providing a program describing processing steps for realizing the above-described configuration and installing it on a computer. The program having the processing steps for realizing the character interface system of the present invention includes a CD-ROM 1002 as shown in the example of the recording medium shown in FIG.
Recording medium 1 such as a disk or a flexible disk 1003
001, it can be provided by being recorded on a recording medium 1000 in a recording device on a network or a recording medium 1005 such as a hard disk or a RAM of a computer, and can be downloaded through a network. is there. The program is loaded on the computer 1004 at the time of execution and executed.

【0108】本発明のキャラクタインタフェースシステ
ムに関し、以下の項を開示する。
The following items are disclosed with respect to the character interface system of the present invention.

【0109】(付記1) コンピュータグラフィックス
のキャラクタを介して、利用者との対話インタフェース
を提供するキャラクタインタフェース提供部と、前記キ
ャラクタを介して得た対話内容を認識する対話認識部
と、前記対話認識部の認識結果から得た利用者情報を基
に、利用者プロファイル情報を編集・更新する利用者プ
ロファイル情報管理部と、対話知識と前記利用者プロフ
ァイル情報を基に、利用者との対話内容を制御する対話
制御部を備えたことを特徴とするキャラクタインタフェ
ースシステム。
(Supplementary Note 1) A character interface providing unit for providing a dialogue interface with a user via a computer graphics character, a dialogue recognition unit for recognizing a dialogue content obtained through the character, and the dialogue A user profile information management unit that edits / updates user profile information based on user information obtained from a recognition result of the recognition unit, and a dialogue content with the user based on the dialog knowledge and the user profile information A character interface system comprising a dialogue control unit for controlling the character interface.

【0110】(付記2) 利用者が発する情報または利
用者を観察して得られる情報を利用者情報として取り込
むモニタ部と、前記モニタ部より得た利用者情報の内容
と、前記利用者プロファイル情報の内容とを照合する照
合部を備え、前記対話制御部が、前記照合部による照合
結果に基づき、利用者への対話内容を制御する付記1に
記載のキャラクタインタフェースシステム。
(Supplementary Note 2) A monitor unit for taking in information issued by a user or information obtained by observing a user as user information, contents of the user information obtained from the monitor unit, and user profile information 2. The character interface system according to claim 1, further comprising: a collating unit configured to collate the content with the user, wherein the dialog control unit controls the content of the conversation with the user based on a result of the collation performed by the collating unit.

【0111】(付記3) 前記モニタ部が、利用者が電
子決済したトランザクションデータと、利用者が閲覧し
たウェブサイト情報と、利用者が送受信した電子メール
情報と、利用者が発した音声情報と、利用者が行った行
為内容を示すデータと、利用者の感情を示すデータのい
ずれか、または、それらの組み合わせを観察し、取り込
む付記2に記載のキャラクタインタフェースシステム。
(Supplementary Note 3) The monitor unit may include transaction data electronically settled by the user, website information browsed by the user, e-mail information transmitted / received by the user, and voice information issued by the user. 3. The character interface system according to Supplementary Note 2, wherein one of data indicating the content of the action performed by the user and data indicating the emotion of the user, or a combination thereof is observed and captured.

【0112】(付記4) 利用者の位置を検知する利用
者位置検知部と、前記利用者位置検知部が検知した利用
者の位置の近傍のアクセス可能なプラットフォームを検
知するプラットフォーム検知部と、前記キャラクタイン
タフェース構築データを前記プラットフォームに転送す
るキャラクタインタフェース構築データ転送部を備え、
利用者が位置を移動した場合、前記キャラクタインタフ
ェース構築データを移動場所近傍のアクセス可能なプラ
ットフォーム上に転送し、利用者の移動場所において前
記キャラクタインタフェースを構築する付記1または2
に記載のキャラクタインタフェースシステム。
(Supplementary Note 4) A user position detecting unit for detecting the position of the user, a platform detecting unit for detecting an accessible platform near the position of the user detected by the user position detecting unit, A character interface construction data transfer unit for transferring character interface construction data to the platform,
When the user moves, the character interface construction data is transferred to an accessible platform near the moving place, and the character interface is constructed at the moving place of the user.
The character interface system according to 1.

【0113】(付記5) 前記プラットフォームが、有
線または無線でネットワークに接続された、コンピュー
タシステム、テレビジョン装置、家庭用電気機器、携帯
電話のいずれかまたはすべてを含む電子機器である付記
4に記載のキャラクタインタフェースシステム。
(Supplementary Note 5) The supplementary note 4, wherein the platform is an electronic device including any or all of a computer system, a television device, a household electric device, and a mobile phone, which are connected to a network by wire or wirelessly. Character interface system.

【0114】(付記6) データベースまたはサービス
へのアクセス部を備え、前記キャラクタインタフェース
が、利用者からの質問または依頼を受け付け、前記対話
認識部が、前記質問内容または依頼内容を解析し、前記
アクセス部がデータベースまたはサービスにアクセス
し、前記質問内容または依頼内容に対する回答または応
答を得て、前記対話制御部が前記回答内容または応答内
容に対応する対話を生成する付記1または2に記載のキ
ャラクタインタフェースシステム。
(Supplementary Note 6) An access unit to a database or a service is provided, the character interface receives a question or a request from a user, and the dialogue recognition unit analyzes the content of the question or the request, and 3. The character interface according to claim 1 or 2, wherein the unit accesses a database or a service, obtains an answer or a response to the question or request, and generates the dialog corresponding to the answer or response. system.

【0115】(付記7) 宣伝対象に関する情報を備え
た、または、宣伝対象に関する情報源にアクセスして情
報を取得できる宣伝部を備え、前記対話制御部が、前記
対話知識と前記宣伝部から供給された宣伝対象に関する
情報とを基に、利用者への会話内容に、前記宣伝対象に
関する宣伝を盛り込む付記1または2に記載のキャラク
タインタフェースシステム。
(Supplementary Note 7) There is provided an advertising unit having information on the advertising target or capable of accessing the information source on the advertising target to acquire the information, and the dialog control unit is provided with the dialog knowledge and supplied from the advertising unit. 3. The character interface system according to appendix 1 or 2, wherein an advertisement related to the advertisement target is included in a conversation with the user based on the information related to the advertisement target.

【0116】(付記8) コンピュータグラフィックス
のキャラクタを介して、利用者とのキャラクタインタフ
ェースとしてキャラクタインタフェースを提供し、前記
キャラクタインタフェースを介して利用者から得た利用
者情報を基に、利用者プロファイル情報を編集・更新
し、前記利用者プロファイル情報を基に、利用者との対
話内容を制御することを特徴とするキャラクタインタフ
ェースの提供方法。
(Supplementary Note 8) A character interface is provided as a character interface with a user via a computer graphics character, and a user profile is provided based on user information obtained from the user via the character interface. A method for providing a character interface, comprising editing and updating information and controlling the content of a dialogue with a user based on the user profile information.

【0117】(付記9) 利用者の位置を検知し、前記
検知した利用者の位置の近傍のアクセス可能なプラット
フォームを検知し、前記キャラクタインタフェース構築
データを前記プラットフォームに転送し、利用者が位置
を移動した場合、前記キャラクタインタフェース構築デ
ータを移動場所近傍のアクセス可能なプラットフォーム
上に転送し、利用者の移動場所において前記キャラクタ
インタフェースを構築する付記8に記載のキャラクタイ
ンタフェースの提供方法。
(Supplementary Note 9) The position of the user is detected, an accessible platform near the detected position of the user is detected, and the character interface construction data is transferred to the platform. 9. The method for providing a character interface according to Appendix 8, wherein the character interface construction data is transferred to an accessible platform near the moving place when the user moves, and the character interface is constructed at the user's moving place.

【0118】(付記10) 利用者との対話インタフェ
ースを提供する処理ステップを備えたプログラムであっ
て、当該プログラムが、コンピュータグラフィックスの
キャラクタを介して、利用者との対話インタフェースを
提供する処理ステップと、前記キャラクタインタフェー
スを介して利用者から得た利用者情報を基に、利用者プ
ロファイル情報を編集・更新する処理ステップと、前記
利用者プロファイル情報を基に、利用者との対話内容を
制御する処理ステップを備えたことを特徴とするプログ
ラム。
(Supplementary Note 10) A program having processing steps for providing a dialogue interface with a user, wherein the program provides a dialogue interface with the user via computer graphics characters. And a processing step of editing / updating user profile information based on user information obtained from the user via the character interface, and controlling the content of dialogue with the user based on the user profile information A program characterized by comprising a processing step of:

【0119】[0119]

【発明の効果】本発明のキャラクタインタフェースシス
テムによれば、利用者はキャラクタに対して自然な会話
を楽しむことができ、この日々の会話を通じて、利用者
に対して意識させることなく、時々刻々変化する利用者
の状況、利用者の持続的な趣味趣向、利用者の一時的な
感情・気まぐれに関する情報などの利用者情報を自律的
かつ柔軟に収集でき、利用者プロファイル情報を編集・
更新することができる。この利用者プロファイル情報を
利用することにより、当該利用者にとっての有益なサー
ビス・情報の提供支援を行うことができる。
According to the character interface system of the present invention, the user can enjoy a natural conversation with the character, and through this daily conversation, the user is not conscious of the user and changes every moment. User information, such as information about the user's situation, the user's persistent hobbies and interests, and information about the user's temporary emotions and whims, can be collected autonomously and flexibly, and can edit and edit user profile information.
Can be updated. By using this user profile information, it is possible to support the provision of useful services and information for the user.

【0120】本発明のキャラクタインタフェースシステ
ムによれば、キャラクタインタフェースシステムの利用
場所などを気にすることなく自由に行動でき、本発明の
キャラクタインタフェースは利用者の移動に伴って自律
的に近傍のプラットフォームに移動し、利用者に対して
キャラクタインタフェースを提供し続けることができ
る。
According to the character interface system of the present invention, the character interface system of the present invention can act freely without worrying about the place of use of the character interface system. To continue providing the user with a character interface.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施形態1のキャラクタインタフェ
ースシステムの概略構成を示す図
FIG. 1 is a diagram illustrating a schematic configuration of a character interface system according to a first embodiment of the present invention;

【図2】 本発明の実施形態1のキャラクタインタフェ
ースシステムの他の概略構成を示す図
FIG. 2 is a diagram showing another schematic configuration of the character interface system according to the first embodiment of the present invention;

【図3】 実施形態1のキャラクタインタフェースシス
テムが採用するキャラクタの表示例を示す図
FIG. 3 is a view showing a display example of a character adopted by the character interface system according to the first embodiment;

【図4】 実施形態1のキャラクタインタフェースシス
テムによる対話の基本パターンの例を示すフローチャー
FIG. 4 is a flowchart illustrating an example of a basic pattern of dialogue by the character interface system according to the first embodiment;

【図5】 実施形態1の他の構成として、利用者端末の
ネットワーク送受信データをモニタする手段を備えた構
成例を示した図
FIG. 5 is a diagram showing a configuration example provided with a unit for monitoring network transmission / reception data of a user terminal as another configuration of the first embodiment;

【図6】 モニタ部50が、電子決済端末200の送受
信データをモニタして取り込んだ電子決済データの一例
を示す図
FIG. 6 is a diagram showing an example of electronic payment data captured by a monitor unit 50 by monitoring transmission / reception data of the electronic payment terminal 200.

【図7】 本発明の実施形態2のキャラクタインタフェ
ースシステムの概略構成を示す図
FIG. 7 is a diagram illustrating a schematic configuration of a character interface system according to a second embodiment of the present invention;

【図8】 実施形態2のキャラクタインタフェースの基
本動作を示すフローチャート
FIG. 8 is a flowchart illustrating a basic operation of the character interface according to the second embodiment.

【図9】 本発明の実施形態3のキャラクタインタフェ
ースシステムの概略構成を示す図
FIG. 9 is a diagram illustrating a schematic configuration of a character interface system according to a third embodiment of the present invention;

【図10】 実施形態3のキャラクタインタフェースの
基本動作を示すフローチャート
FIG. 10 is a flowchart showing a basic operation of the character interface according to the third embodiment;

【図11】 本発明の実施形態4のキャラクタインタフ
ェースシステムの概略構成を示す図
FIG. 11 is a diagram illustrating a schematic configuration of a character interface system according to a fourth embodiment of the present invention;

【図12】 実施形態4のキャラクタインタフェースの
基本動作を示すフローチャート
FIG. 12 is a flowchart illustrating a basic operation of the character interface according to the fourth embodiment.

【図13】 本発明の実施形態5のキャラクタインタフ
ェースシステムの処理プログラムを記録した記録媒体の
例を示す図
FIG. 13 is a diagram showing an example of a recording medium on which a processing program of the character interface system according to the fifth embodiment of the present invention is recorded.

【符号の説明】[Explanation of symbols]

10,10a キャラクタインタフェース提供部 11 キャラクタ表示部 12 対話入力部 13 対話出力部 20 対話認識部 30 利用者プロファイル情報管理部 31 利用者プロファイル情報記憶部 40 対話制御部 41 対話知識部 50 モニタ部 60 照合部 70 アクセス部 80 利用者位置検知部 81 プラットフォーム検知部 82 キャラクタインタフェース構築データ転送部 90 宣伝部 100,100a,100b,100c,100d キ
ャラクタインタフェースシステム 200 電子決済端末 300 データベース 310 サービス 400 プラットフォーム 1000 ネットワーク上にある記録装置内の記録媒体 1001 可搬型記録媒体 1002 CD−ROM 1003 フレキシブルディスク 1004 コンピュータ 1005 コンピュータのハードディスクやRAM等の
記録媒体
10, 10a Character interface providing section 11 Character display section 12 Dialog input section 13 Dialog output section 20 Dialog recognition section 30 User profile information management section 31 User profile information storage section 40 Dialog control section 41 Dialog knowledge section 50 Monitor section 60 Matching Unit 70 access unit 80 user position detection unit 81 platform detection unit 82 character interface construction data transfer unit 90 advertising unit 100, 100a, 100b, 100c, 100d character interface system 200 electronic payment terminal 300 database 310 service 400 platform 1000 on the network Recording medium in a certain recording apparatus 1001 Portable recording medium 1002 CD-ROM 1003 Flexible disk 1004 Computer 1005 Computer such as a hard disk and a RAM of the recording medium

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B075 ND20 PR08 UU08 5E501 AA02 AC07 AC37 BA03 BA05 CA02 CB02 CB09 DA02 DA14 DA15 EA02 FA13 FA14  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B075 ND20 PR08 UU08 5E501 AA02 AC07 AC37 BA03 BA05 CA02 CB02 CB09 DA02 DA14 DA15 EA02 FA13 FA14

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 コンピュータグラフィックスのキャラク
タを介して、利用者との対話インタフェースを提供する
キャラクタインタフェース提供部と、 前記キャラクタを介して得た対話内容を認識する対話認
識部と、 前記対話認識部の認識結果から得た利用者情報を基に、
利用者プロファイル情報を編集・更新する利用者プロフ
ァイル情報管理部と、 対話知識と前記利用者プロファイル情報を基に、利用者
との対話内容を制御する対話制御部を備えたことを特徴
とするキャラクタインタフェースシステム。
1. A character interface providing unit for providing a dialogue interface with a user via a computer graphics character; a dialogue recognition unit for recognizing a dialogue content obtained via the character; and a dialogue recognition unit. Based on the user information obtained from the recognition result of
A character, comprising: a user profile information management unit for editing and updating user profile information; and a dialog control unit for controlling the content of a dialog with a user based on the dialog knowledge and the user profile information. Interface system.
【請求項2】 利用者が発する情報または利用者を観察
して得られる情報を利用者情報として取り込むモニタ部
と、 前記モニタ部より得た利用者情報の内容と、前記利用者
プロファイル情報の内容とを照合する照合部を備え、 前記対話制御部が、前記照合部による照合結果に基づ
き、利用者への対話内容を制御する請求項1に記載のキ
ャラクタインタフェースシステム。
2. A monitor section for taking in information issued by a user or information obtained by observing a user as user information, contents of the user information obtained from the monitor section, and contents of the user profile information. The character interface system according to claim 1, further comprising: a collating unit configured to collate with the user, wherein the dialog control unit controls the content of the conversation with the user based on a result of the collation performed by the collating unit.
【請求項3】 利用者の位置を検知する利用者位置検知
部と、 前記利用者位置検知部が検知した利用者の位置の近傍の
アクセス可能なプラットフォームを検知するプラットフ
ォーム検知部と、 前記キャラクタインタフェース構築データを前記プラッ
トフォームに転送するキャラクタインタフェース構築デ
ータ転送部を備え、 利用者が位置を移動した場合、前記キャラクタインタフ
ェース構築データを移動場所近傍のアクセス可能なプラ
ットフォーム上に転送し、利用者の移動場所において前
記キャラクタインタフェースを構築する請求項1または
2に記載のキャラクタインタフェースシステム。
3. A user position detecting unit for detecting a position of the user, a platform detecting unit for detecting an accessible platform near the position of the user detected by the user position detecting unit, and the character interface. A character interface construction data transfer unit for transferring the construction data to the platform, wherein when the user moves, the character interface construction data is transferred to an accessible platform near the moving place, and the user's moving place The character interface system according to claim 1 or 2, wherein the character interface is constructed in (1).
【請求項4】 コンピュータグラフィックスのキャラク
タを介して、利用者とのキャラクタインタフェースとし
てキャラクタインタフェースを提供し、 前記キャラクタインタフェースを介して利用者から得た
利用者情報を基に、利用者プロファイル情報を編集・更
新し、 前記利用者プロファイル情報を基に、利用者との対話内
容を制御することを特徴とするキャラクタインタフェー
スの提供方法。
4. A character interface is provided as a character interface with a user via a computer graphics character, and user profile information is obtained based on user information obtained from the user via the character interface. A method of providing a character interface, comprising editing and updating, and controlling the content of a dialogue with a user based on the user profile information.
【請求項5】 利用者との対話インタフェースを提供す
る処理ステップを備えたプログラムであって、当該プロ
グラムが、 コンピュータグラフィックスのキャラクタを介して、利
用者との対話インタフェースを提供する処理ステップ
と、 前記キャラクタインタフェースを介して利用者から得た
利用者情報を基に、利用者プロファイル情報を編集・更
新する処理ステップと、 前記利用者プロファイル情報を基に、利用者との対話内
容を制御する処理ステップを備えたことを特徴とするプ
ログラム。
5. A program comprising processing steps for providing an interactive interface with a user, the program comprising: a processing step for providing an interactive interface with a user via a computer graphics character; A step of editing / updating user profile information based on user information obtained from the user via the character interface; and a step of controlling the content of dialogue with the user based on the user profile information. A program comprising steps.
JP2001151545A 2001-05-21 2001-05-21 Character interface system Pending JP2002341985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001151545A JP2002341985A (en) 2001-05-21 2001-05-21 Character interface system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001151545A JP2002341985A (en) 2001-05-21 2001-05-21 Character interface system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006229058A Division JP4343201B2 (en) 2006-08-25 2006-08-25 Character interface system

Publications (1)

Publication Number Publication Date
JP2002341985A true JP2002341985A (en) 2002-11-29

Family

ID=18996372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001151545A Pending JP2002341985A (en) 2001-05-21 2001-05-21 Character interface system

Country Status (1)

Country Link
JP (1) JP2002341985A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196645A (en) * 2004-01-09 2005-07-21 Nippon Hoso Kyokai <Nhk> Information presentation system, information presentation device and information presentation program
KR100522440B1 (en) * 2003-05-02 2005-10-20 에스케이 텔레콤주식회사 User context collecting method using interactive interface
JP2006106962A (en) * 2004-10-01 2006-04-20 Ntt Docomo Inc Interaction control system, terminal device and interaction control method
WO2016088597A1 (en) * 2014-12-01 2016-06-09 シャープ株式会社 Food management system, refrigerator, server, terminal device, and control program
WO2018034034A1 (en) * 2016-08-19 2018-02-22 ソニー株式会社 Information processing device, information processing method, and program
WO2019181221A1 (en) * 2018-03-20 2019-09-26 ソニー株式会社 Information processing device and information processing system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259446A (en) * 1998-03-12 1999-09-24 Aqueous Reserch:Kk Agent device
JP2001007856A (en) * 1999-06-24 2001-01-12 Sony Corp Network system, information management unit and terminal
JP2001134642A (en) * 1999-11-02 2001-05-18 Atr Media Integration & Communications Res Lab Agent system utilizing social response characteristic

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259446A (en) * 1998-03-12 1999-09-24 Aqueous Reserch:Kk Agent device
JP2001007856A (en) * 1999-06-24 2001-01-12 Sony Corp Network system, information management unit and terminal
JP2001134642A (en) * 1999-11-02 2001-05-18 Atr Media Integration & Communications Res Lab Agent system utilizing social response characteristic

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100522440B1 (en) * 2003-05-02 2005-10-20 에스케이 텔레콤주식회사 User context collecting method using interactive interface
JP2005196645A (en) * 2004-01-09 2005-07-21 Nippon Hoso Kyokai <Nhk> Information presentation system, information presentation device and information presentation program
JP2006106962A (en) * 2004-10-01 2006-04-20 Ntt Docomo Inc Interaction control system, terminal device and interaction control method
JP4489552B2 (en) * 2004-10-01 2010-06-23 株式会社エヌ・ティ・ティ・ドコモ System and terminal arrangement method
WO2016088597A1 (en) * 2014-12-01 2016-06-09 シャープ株式会社 Food management system, refrigerator, server, terminal device, and control program
CN106796671A (en) * 2014-12-01 2017-05-31 夏普株式会社 Food management system, refrigerator, server, terminal installation and control program
JPWO2016088597A1 (en) * 2014-12-01 2017-06-29 シャープ株式会社 Food management system, refrigerator, server, terminal device, and control program
CN106796671B (en) * 2014-12-01 2021-01-12 夏普株式会社 Food management system, refrigerator, server, and recording medium
WO2018034034A1 (en) * 2016-08-19 2018-02-22 ソニー株式会社 Information processing device, information processing method, and program
WO2019181221A1 (en) * 2018-03-20 2019-09-26 ソニー株式会社 Information processing device and information processing system

Similar Documents

Publication Publication Date Title
AU2005224747B2 (en) Real-time sales support and learning tool
US7603291B2 (en) Multi-modal sales applications
US7181696B2 (en) System and method for performing market research studies on online content
JP2002216026A (en) Information communication system, agent terminal, information distribution system, storage medium with agent program stored, storage medium with agent access program stored, storage medium with exclusive processing program stored, agent program, agent access program and exclusive processing program
US20040181467A1 (en) Multi-modal warehouse applications
CN105096154A (en) Active providing method of advertising
US20060206381A1 (en) Method and system for creating interactive guides and information exchange services
KR20120061997A (en) Systems and methods for merchandising transactions via image matching in a content delivery system
CN104065837A (en) Method and apparatus for providing state information
CN107256215A (en) Mobile computing device is loaded using media file
US20130132203A1 (en) Advertising system combined with search engine service and method for implementing the same
CN101114370A (en) Open type full effect spread abroad and marketing method on network
CN101681622B (en) Speech recognition for identifying advertisments and/or web pages
CN105227778A (en) The method of event notification, device, terminal and server
JP2004139208A (en) Device, system, method, and program for accounting
US10114897B1 (en) Search and notification procedures based on user history information
JP2002341985A (en) Character interface system
JP4343201B2 (en) Character interface system
US20230196247A1 (en) Communication apparatus, communication method, and program
US10248728B1 (en) Search and notification procedures based on user history information
US20230024052A1 (en) Techniques for managing softphone repositories and establishing communication channels
JP4752099B2 (en) Information providing apparatus, information providing method, and data recording medium
US10353968B1 (en) Search and notification procedures based on user history information
JP6808774B2 (en) Approach support system, approach support method and approach support program
JP7414128B2 (en) Conversation control program, conversation control method, and information processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060825

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070115

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070323

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070420