JP4071491B2 - Agent creating apparatus, agent using apparatus and method - Google Patents

Agent creating apparatus, agent using apparatus and method Download PDF

Info

Publication number
JP4071491B2
JP4071491B2 JP2001380207A JP2001380207A JP4071491B2 JP 4071491 B2 JP4071491 B2 JP 4071491B2 JP 2001380207 A JP2001380207 A JP 2001380207A JP 2001380207 A JP2001380207 A JP 2001380207A JP 4071491 B2 JP4071491 B2 JP 4071491B2
Authority
JP
Japan
Prior art keywords
agent
data
user
information
preference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001380207A
Other languages
Japanese (ja)
Other versions
JP2003186589A (en
Inventor
清水  仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2001380207A priority Critical patent/JP4071491B2/en
Publication of JP2003186589A publication Critical patent/JP2003186589A/en
Application granted granted Critical
Publication of JP4071491B2 publication Critical patent/JP4071491B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、エージェント作成装置およびエージェント使用装置ならびに方法に関し、特にユーザの嗜好を反映させたエージェントを作成することができるエージェント作成装置およびエージェント使用装置ならびに方法に関する。
【0002】
【従来の技術】
エージェントとは、ユーザインターフェースとして機能する人物等の形をした動画像である。エージェントは、コンピュータなどの画面上に現れてユーザと対話を行ったり、ユーザに対して何らかの情報を提示したりする。
【0003】
従来より、キャラクタとしてのエージェントが擬人化されたユーザインターフェースとして研究されてきた。このようなユーザインターフェースにおいては、コンピュータのディスプレイ上にキャラクタ(エージェント)が現れ、ユーザは、実際に人間と対話しているように操作を行うことができる。
【0004】
エージェントに関しては、電子秘書や電子受付システムといった形の用途が提案されており、実際、様々な場面での受付け用インターフェースとしてエージェントは実現されている(例えば、電子情報通信学会 知能と複雑系 121−8「エージェントを応用した次世代テレビエンターテイメントシステム」、情報処理学会研究報告 ヒューマンインターフェース 80−4「擬人化キャラクタを利用した知的対話システム」参照)。これらはいずれもWWW(World Wide Web)上のサービスのインターフェースを想定して作成されている。
【0005】
また、特開平2−83727号公報や特開平5―41894号公報には、画面上にキャラクタを表示して機器の使用法を案内する装置が開示されている。
【0006】
上述の従来技術は、いずれもサービス等を提供するシステムの側がエージェントを用意し、ユーザに応対するものである。
【0007】
ユーザがエージェントを作成することを可能にする環境として、Microsoft社のMS-Agent Ver2.0が知られている。この環境においてユーザは、専用のツールを用いてキャラクタとその動作を入力することで、エージェントを作成する。当該技術においては、画面上に擬人化されたキャラクタが現れ、画面上を移動したり対象物を指し示して、吹き出しと音声を用いてユーザに対応するエージェントを作成することができる。
【0008】
なお、嗜好調査の方法として、特開平10−307845号公報や特開2000−132618号公報に述べられているように、ユーザごとの情報閲覧や商品購入の履歴を取得し、その内容を分析することでユーザの嗜好を得るシステムが従来技術として存在する。
【0009】
その他にもテレビ番組の視聴履歴を記録し、その内容からユーザが好む番組を推測し、それに合致する番組があればユーザに勧めるような技術が知られている。
【0010】
【発明が解決しようとする課題】
従来のエージェント作成ツールで、オリジナルのエージェントキャラクタを作成したり、デザインすることは難しい。そこで、実際にはあらかじめ用意されたキャラクタをエージェントとして使用している場合が多い。電子秘書システムや電子受付システムでは人間の姿をしたキャラクタが用いられているが、これらについてはデザイナー等によって作成されている場合が多く、ユーザが気軽に作成できるというものではない。
【0011】
また、上述のエージェント作成装置では、ユーザがエージェントの作成とデザインを全て行う必要があり、ユーザ自身が気軽にエージェントを作成できるようにはなっていなかった。
【0012】
そのため、現在ではユーザが気軽にエージェントを好きなように作成し、コミュニケーションに利用する環境はない。
【0013】
一方、嗜好調査としてサービス利用時のユーザの行動を記録する方法では、ユーザが実際にそのサービスを利用する必要がある。サービスが有料である場合にはユーザ数が少なく、嗜好調査の精度が低くなることが考えられる。また、取得できる嗜好情報はユーザが何を利用したか、何を買ったかという言語情報であり、従来の手法では非言語情報に関係する嗜好情報を取得できない。
【0014】
アンケートにより嗜好情報を抽出するような場合でも、ユーザは受身的に行うことが多く、質の高い嗜好情報が必ず抽出できるとは限らない。
【0015】
【課題を解決するための手段】
この発明は上記問題点を解決するためになされたものであり、第1に、ユーザ自身が気軽にエージェントを作成できるエージェント作成装置およびエージェント使用装置ならびに方法を提供することを目的としている。
【0016】
この発明は第2に、質の高い嗜好情報が抽出できるエージェント作成装置およびエージェント使用装置ならびに方法を提供することを目的としている。
【0017】
上記目的を達成するため、この発明のある局面に従うと、エージェント作成装置は、服装、髪型その他のエージェントの構成要素であるエージェント作成用データを記憶するデータ記憶手段と、ユーザの操作に基づき、データ記憶手段に記憶された、服装、髪型その他のエージェントの構成要素であるエージェント作成用データから所望のものを選択するデータ選択手段と、データ選択手段で選択されたデータからエージェントを作成するエージェント作成手段と、エージェント作成手段により作成されたエージェント、ならびに、データ選択手段により選択された内容、エージェントを作成したユーザ名、および設定情報の少なくとも1つであるエージェントの属性情報を記憶するエージェント情報記憶手段と、エージェント情報記憶手段に記憶された、1人または複数ユーザのデータを分析して嗜好を抽出する嗜好抽出手段とを備える。
【0018】
好ましくはエージェント作成装置においては、データ記憶手段、データ選択手段、エージェント作成手段、およびエージェント情報記憶手段のうちの一つ以上が外部の装置上に存在してネットワークを通じて接続されていることを特徴とする。
【0019】
好ましくはエージェント作成装置は、データ選択手段によりエージェント作成用データが選択された際に、嗜好抽出手段により嗜好抽出を行うことを特徴とする。
【0020】
好ましくはエージェント作成装置は、エージェント情報記憶手段にエージェントとエージェントの属性情報とを記憶させた後で、エージェント情報記憶手段に記録されている、エージェント選択手段により選択された内容や設定情報を参照して、嗜好抽出手段により嗜好抽出を行うことを特徴とする。
【0021】
この発明の他の局面に従うと、エージェント使用装置は、ユーザ端末の画面にエージェントを表示するエージェント表示手段と、ユーザの操作に基づき、服装、髪型その他のエージェントの構成要素であるエージェント作成用データから所望のものを選択して作成された複数のエージェントからユーザが使用するエージェントを選択させるエージェント選択手段と、エージェントを使用するユーザからエージェントの動作の指定を受付けるエージェント使用手段と、エージェントが使用できるネットワーク上のサービス情報を提供する情報提供手段と、エージェントを用いた通信を管理するエージェント制御手段と、エージェントを参照する参照手段と、エージェントが使用可能なサービスを参照または利用したユーザの属性情報を記憶する利用データ記憶手段と、利用データ記憶手段の中の1人または複数ユーザの属性情報を分析して、嗜好を抽出する嗜好抽出手段とを備える。
【0022】
好ましくは、エージェント使用装置の手段の一部は外部の装置に存在して、ネットワークを通じて接続されていることを特徴とする。
【0023】
この発明の他の局面に従うと、エージェント使用装置は、ユーザ端末の画面にエージェントを表示するエージェント表示手段と、ユーザの操作に基づき、服装、髪型その他のエージェントの構成要素であるエージェント作成用データから所望のものを選択して作成された複数のエージェントからユーザが使用するエージェントを選択させるエージェント選択手段と、エージェントを使用するユーザからエージェントの動作の指定を受付けるエージェント使用手段と、エージェントを使用しているユーザの情報を提供する情報提供手段と、エージェントを用いた通信を管理するエージェント制御手段と、エージェントを参照する参照手段とを備える。
【0024】
好ましくは、エージェント使用装置の手段の一部は外部の装置に存在して、ネットワークを通じて接続されていることを特徴とする。
【0025】
この発明の他の局面に従うと、エージェント作成方法は、服装、髪型その他のエージェントの構成要素であるエージェント作成用データを記憶するデータ記憶ステップと、ユーザの操作に基づき、データ記憶ステップで記憶された、服装、髪型その他のエージェントの構成要素であるエージェント作成用データから所望のものを選択するデータ選択ステップと、データ選択ステップにより選択されたデータからエージェントを作成するエージェント作成ステップと、エージェント作成ステップにより作成されたエージェント、ならびに、データ選択ステップにより選択された内容、エージェントを作成したユーザ名、および設定情報の少なくとも1つであるエージェントの属性情報をエージェント情報記憶手段に記憶するエージェント情報記憶ステップと、エージェント情報記憶手段に記憶された、1人または複数ユーザのデータを分析して嗜好を抽出する抽出ステップとを備える。
【0026】
この発明の他の局面に従うと、エージェント使用方法は、ユーザ端末の画面にエージェントを表示するエージェント表示ステップと、ユーザの操作に基づき、服装、髪型その他のエージェントの構成要素であるエージェント作成用データから所望のものを選択して作成された複数のエージェントからユーザが使用するエージェントを選択させるエージェント選択ステップと、エージェントを使用するユーザからエージェントの動作の指定を受付けるエージェント使用ステップと、エージェントが使用できるネットワーク上のサービス情報を提供する情報提供ステップと、エージェントを用いた通信を管理するエージェント制御ステップと、エージェントを参照する参照ステップと、エージェントが使用可能なサービスを参照または利用したユーザの属性情報を利用データ記憶手段に記憶する利用データ記憶ステップと、利用データ記憶手段の中の1人または複数ユーザの属性情報を分析して、嗜好を抽出する嗜好抽出ステップとを備える。
【0027】
この発明の他の局面に従うと、エージェント使用方法は、ユーザ端末の画面にエージェントを表示するエージェント表示ステップと、ユーザの操作に基づき、服装、髪型その他のエージェントの構成要素であるエージェント作成用データから所望のものを選択して作成された複数のエージェントからユーザが使用するエージェントを選択させるエージェント選択ステップと、エージェントを使用するユーザからエージェントの動作の指定を受付けるエージェント使用ステップと、エージェントを使用しているユーザの情報を提供する情報提供ステップと、エージェントを用いた通信を管理するエージェント制御ステップと、エージェントを参照する参照ステップとを備える。
【0028】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態に係るエージェント作成装置およびエージェント使用装置について説明する。
【0029】
本実施の形態でエージェントは、画面上に表示されてユーザとの対話やユーザへの案内を行うユーザインターフェースとして機能する。また、エージェントの動作、外見に関してユーザの好みに合わせたエージェントを作成することができる。
【0030】
また、従来エージェントはコンピュータなどの画面上に現れるユーザインターフェースとして用いられてきたが、本実施の形態ではそれに加えてエージェントをエージェント作成者の嗜好抽出の手段として用いることを可能にする。
【0031】
本実施の形態では、エージェント作成装置は、エージェント作成のためのデータを提供する部材と、ユーザが用意した写真を指定できるようにし、また、服装、髪型などエージェントの構成要素についてユーザが好きなデータを選択できる部材と、それらの画像をテクスチャマッピングや3次元レンダリングを用いることでエージェントを簡単に作成できるエージェント作成部材と備える。
【0032】
これによりユーザはエージェントのキャラクタデザインを行う必要がない。また、エージェント作成装置でエージェント作成のためのデータを選択することで、ユーザは簡単に、様々な外見を有するエージェントを作成することができる。また、写真を用い、特定の人物に類似したエージェントを容易に作成可能とすることで、エージェントの用途がより広がるという効果が得られる。
【0033】
また、従来技術において嗜好調査では、ユーザが行った操作や行動の履歴を記録し、何を参照したかといった、言語的な情報を嗜好として取出していた。
【0034】
本実施の形態では、嗜好抽出部がエージェント作成装置とエージェント使用装置に備えられている。エージェント作成装置においてユーザは、自分の好きなエージェント作成用データを組み合わせてエージェントを作成する。嗜好抽出部は、エージェント作成に用いられたデータを参照し、指定された条件に沿って使用されているデータ数を数え、データが格納されている部材を参照して嗜好調査の結果を表示する。
【0035】
また、エージェント使用装置は、エージェントを使用するネットワーク上のサービスやユーザの情報を提示する情報提供部と、エージェントを使用する通信の仲立ちをするエージェント制御部とを備える。このようにして、単にエージェントを作成するだけではなく、エージェントを使用するサービスの情報を提供したり、エージェントを作成したユーザ同士の間でエージェントを用いた通信を行ことで、エージェントを他者とのコミュニケーションに使うことができる。これにより、ユーザにとってエージェントに単に作成するだけのものではなく、他人に見せるものという意味合いを持たせることができる。
【0036】
エージェントを他人に見せるのであれば、ユーザにとって自分の服を選んだりする行為の際と同様の心理がエージェント作成時に働き、エージェント作成時に行うデータ選択でユーザの好みが無意識のうちに反映されるようになる。
【0037】
従って従来技術と比較して、エージェント作成を通じてユーザの潜在的な好みが自然とエージェントに反映されるようになる。また、それらは言葉で表しにくい主観的、直感的なものになるので、従来技術における手法では難しかった、非言語的な嗜好の抽出が可能となる。
【0038】
すなわち、本実施の形態では、作成されたエージェントを分析することで、ユーザの潜在的な好みを把握することができる。また、画像による外面的な嗜好だけでなく、エージェントのデータとして話し方、性格等が異なるものをユーザに提供し、作成時に選択してもらうことで、作成したユーザ自身の性格等をエージェントに反映させたり、性格等という人間の内面的な性質に対する嗜好を調査することも可能になる。
【0039】
[第1の実施の形態]
図1は第1の実施の形態におけるエージェント作成装置の概略構成を示すブロック図である。
【0040】
図を参照してエージェント作成装置は、エージェント作成のためのデータを保存し、外部からのデータの追加、削除、編集も可能なデータ記憶部2と、データ記憶部2を参照してその内容をエージェントを作成するユーザに示し、ユーザが選択した内容を受け取ってそれに対応するデータをデータ記憶部2から取り出してエージェント作成部4に送り、選択された内容をエージェント情報記憶部5または嗜好抽出部6に送るデータ選択部3と、データ選択部3からデータを受け取り、ユーザからはエージェント作成に用いる写真を受け取り、実際にエージェントを作成するエージェント作成部4と、エージェント作成時に使用したデータの種類やエージェントを作成したユーザ名、エージェントを作成した時刻などのエージェントの属性情報とエージェント作成部4で作成されたエージェントを保存するエージェント情報記憶部5と、データ選択部3から受け取った内容やエージェント情報記憶部5を参照して嗜好情報を抽出する嗜好抽出部6とから構成される。
【0041】
なお、エージェント作成装置のハードウェア構成は、CPU、メモリ、入力装置、ディスプレイ、各種インターフェイス、ハードディスク、外部記憶装置などを備えたコンピュータにより実現される。
【0042】
図2は、エージェント作成装置が実行するエージェント作成方法を示すフローチャートである。
【0043】
ユーザがエージェントの作成を開始すると、ステップS1により、データ選択部3がデータ記憶部2を参照する。ステップS2ではステップS1で参照した内容をユーザに提示する。
【0044】
具体的にはエージェントの服装、髪型、アクセサリ類、エージェントの内面的な性格を表す内容等が提示される。
【0045】
ステップS3でユーザは、ステップS2で示された内容から自分の好みに合うものを選び、選択操作を行う。エージェント作成にユーザ自身が用意した写真を用いる場合にはここで指定する。ステップS3で選択、指定された内容は、エージェント作成部3に渡され、ステップS4でエージェントが作成され、ステップS5で作成されたエージェントはエージェント情報記憶部5に格納される。
【0046】
一方、ステップS3においてユーザがエージェント作成時に選択した内容は、ステップS6においてエージェント情報記憶部5に、作成されたエージェントの属性情報として書き込まれる。ステップS7において、嗜好抽出部6がエージェント情報記憶部5を参照して嗜好を抽出する。嗜好抽出部6では、エージェント作成と同時にユーザの嗜好を抽出することも可能である。またエージェント情報記憶部5に多くのユーザのエージェントが作成されてから嗜好抽出を行うことも可能である。
【0047】
図3は、データ記憶部2の概略図である。データ編集部21はデータ保存部22へのデータの追加、削除、編集を行う。外部からネットワークを通じてデータ編集を行う場合もある。データ保存部22には実際にデータが保存される。ID付与部23は、データ編集部21によりデータ保存部22に新しくデータが追加される際にIDを付与してデータを記憶する。
【0048】
図4は、データ保存部22のデータ記憶構造の具体例を示す図である。データ保存部22にはエージェント作成に用いる様々なデータが保存されている。保存されているデータは一枚の画像ではなく、エージェントの様々な動作に対応した3次元モデルやサンプルとなるエージェントなどのデータである。データ保存部22に保存されている様々なデータが組み合わせられてエージェントは作成される。
【0049】
図4のエージェントデータIDは、個々のデータに唯一与えられるものである。ユーザがエージェントを作成した際にどのデータを用いてエージェントを作成したかは、IDを用いて管理される。
【0050】
図4のキーワードは、データ作成者がデータの内容に関係する内容、イメージ、このデータを選択しそうな人の性格等を付与するためのものである。
【0051】
図4のエージェント作成用データは、エージェント作成に用いる3次元モデルやサンプルのエージェントそのもののデータである。
【0052】
図4のA3、B2、C4、D7はID付与部23が各データに付与するIDの一例である。アルファベットがデータの種類を示し、後ろの数字が種類内での識別用の番号を示している。ID付与方法はこの形式に限るものではない。
【0053】
図4内のD7のデータは、3次元モデルとして用いるものではなく、エージェントの性格、話し方等画像にはしにくい内面的な特徴を示すためのあらかじめ作成されたサンプルである。この種類のデータとしてはサンプルとなるエージェントとしてあらかじめ作成されたものが置かれている。ユーザはサンプルのエージェントを動かしてみて話し方、仕草等が好みに合うものかどうかを判断する。データ保存部22の内容は一例であり、図4の形式に限定するものではない。
【0054】
図5は、データ選択部3の概略図である。
図を参照してデータ選択部3は、データ参照部31と、参照内容表示部32と、ユーザ選択受付部33と、データ転送部34とを備える。
【0055】
データ参照部31は、データ記憶部2に記憶されている内容を参照する。参照内容表示部32は、データ参照部31で参照したデータをユーザに表示する。ユーザ選択受付部33では参照内容表示部32によって表示されたエージェントのデータからユーザが選んだものがどれであるかという内容を受け取り、またユーザが用意した写真を用いてエージェントを作成する場合に写真を受け取る。
【0056】
データ転送部34は、データ選択部3で選択されたエージェント作成用データを、エージェント情報記憶部5と嗜好抽出部6にユーザが選択したデータのIDを用いて送信する。
【0057】
図6は、ユーザに対する表示内容のインターフェース例であり、データ参照部31がデータ記憶部2を参照した内容を参照内容表示部32で表示したものである。
【0058】
図に示されるように、服装、髪型、持ち物、特定の性格、性質を持つエージェント等を作成するために必要な要素が3次元モデルと言葉で表示される。ユーザはこれらから好きなものを選択する。図6の例では服装、髪型、持ち物の部分は3次元モデルで表示されており、ボタン等を押すことで選択可能である。一方、性格の部分はサンプルとして作成されるエージェントの3次元モデルで示される。
【0059】
ユーザがサンプルのエージェントを実行させるように指示すると、後述のエージェント使用装置に含まれる部材によりエージェントが実行され、設定された内容でエージェントがユーザの画面上を動く。このとき、話し方、仕草等がサンプルエージェントごとに異なり、ユーザが好みのものを選択することで、エージェントの性格、仕草を決定する。
【0060】
ユーザ選択受付部33は、表示内容から選択されたものの情報と、ユーザがエージェント作成に用いる場合の写真を受取る。データ転送部34は、ユーザ選択受付部33で得られた情報をエージェント情報記憶部5に渡す。また、選択されたデータの画像そのものや写真はエージェント作成部4に転送される。
【0061】
図7は、エージェント作成部4の概略図である。
エージェント作成部4は、選択された3次元モデルと与えられた画像からエージェントを作成する。
【0062】
データ受け取り部41は、外部から3次元モデルとユーザが用意した画像データを受け取る。画像貼り付け部42は、エージェント各々の動作アニメーションを、データ受け取り部41で受け取った画像データと選択された3次元モデルを貼り付けることで作成する。画像作成の方法としてはテクスチャマッピングや3次元レンダリングの手法を用いることができる。合成部43は、画像貼り付け部42で作成した各々の動作アニメーションを統合して、様々な動きのアニメーションを持つ1つのエージェントを作成する。エージェント書き込み部44は、合成部43で作成したエージェントをエージェント情報記憶部5に書き込む。
【0063】
図8は、エージェント情報記憶部5に記憶されている内容の具体例を示す図である。
【0064】
エージェント作成部4で作成されたエージェント、エージェント番号、個々のエージェントが持つ属性情報が表形式で管理されている。エージェント番号はエージェントが新たに作成される際にエージェントごとに付与されるものである。エージェントの属性情報とはエージェントを作成したユーザの名前、ユーザがエージェントにつけた名前、作成したエージェントの使用目的を選択して決定する用途、エージェント作成に用いたデータのID、エージェントを作成した日時、エージェントを使用した日時、エージェントを使用した回数である。データのIDは、図4に例として示したデータごとのIDに対応するものである。属性情報で個々のエージェントを管理したり、属性情報を参照することで嗜好抽出を行う。
【0065】
ユーザの名前、エージェントに付けた名前はエージェント作成時にユーザが決め、修正も可能である。用途はユーザが複数のエージェントを用いた場合に、どのような目的で作成したエージェントかを区別しやすくするためのものであり、エージェント作成時にリストから適当なものを選んで決定する。作成日時としては、作成したエージェントがエージェント情報記憶部5に記録された時刻が書き込まれる。使用日時としては、エージェントが最後に使用された日時を記録する。エージェントが使用される度にこの項目を更新する。使用回数はエージェントが作成されてから現在までの間に使用された回数の累計である。エージェント保存はエージェント作成部4で作成されたエージェントが実際に保存される所である。
【0066】
図8に示されているエージェントは静止画像ではなく、全てのアニメーションのデータを含んだ一つのエージェントとして保存されている。
【0067】
図9は、嗜好抽出部6の概略図である。
図を参照して、嗜好抽出部6は、参照部61と、集計部62と、結果表示部63とを含む。
【0068】
参照部61は、エージェント作成時の情報が記憶されているエージェント情報記憶部5の属性情報や、エージェント作成に用いる画像データとそのIDの間の対応関係が記録されているデータ記憶部2のIDなどを参照する。
【0069】
集計部62は、参照部61で参照した内容をもとにどのIDのデータがどのくらい選択されたかや、時系列的なデータ選択数の推移等を算出する。結果表示部63は、集計部62で集計された内容を表示する。
【0070】
図10は、嗜好抽出部6の動作を示すフローチャートである。
図を参照して、ステップS11で参照部61は、エージェント情報記憶部5内の最初のエージェント番号1の内容を参照する。ステップS12、S13で、嗜好抽出時に設定した条件に合致する属性情報の部分を調査する。嗜好抽出時に設定する条件とは以下の通りである。
【0071】
(1) すべてのエージェントを対象とする
(2) 用途が特定のものだけを選び出して集計する
(3) ユーザを特定して集計する
(4) エージェントが作成された時期を特定して集計する
(5) 使用頻度が高いエージェントについてのみ集計する
なお、これらの条件は複数を組み合わせて指定することも可能である。
【0072】
対象としているエージェントの属性情報が条件を満たしていればエージェント作成用データIDを参照し、満たしていなければステップS17により次のエージェント番号のデータを参照する。条件を満たしている場合、ステップS14でエージェント作成用データIDに記録されているIDを順に参照する。そして、集計部62において、参照したIDの数をカウントアップする。これを記録されているID全てに対して行い、ステップS15において、記録されているIDが全て参照された場合はステップS16に進む。
【0073】
エージェント情報記憶部5の内容が図8のようになっていて、エージェント番号2のエージェントIDを参照した場合、集計部62においてA23、D4、E22が用いられた数が1ずつカウントアップされる。ステップS16において、参照したエージェントが最後のエージェント番号のものであったときはステップS18に進み、そうでなければステップS17に進んで、次のエージェントを参照する。ステップS18では集計部62の内容を結果表示部63で表示する。このとき参照部61によりデータ記憶部2を参照し、IDを元にエージェント作成用データやそれに対応付けて記憶されているキーワードを参照する。
【0074】
結果表示部63では集計部62の内容にあわせて、対応するエージェント作成用データや対応するキーワードを嗜好として表示する。これにより最も多く選択されたエージェント作成用データの内容を多くのユーザが好んでいるという結果が得られたり、エージェント作成用データに対応付けられているキーワードから嗜好の傾向を推測することが可能になる。尚、上記に示した嗜好抽出の方法は一例であり、他の方法もありうる。
【0075】
なお、嗜好抽出部6において嗜好抽出を行うタイミングをユーザがデータ選択部3でエージェント作成に用いるデータを選択した直後としてもよい。選択直後に嗜好抽出を行うことで、性格診断、占い等の形でユーザに対してサーバー側から即座に選択内容を分析した返事を返すようなサービスが可能となる。
【0076】
また、嗜好抽出部6において嗜好抽出を行うタイミングをエージェント情報記憶部5にエージェントと属性情報が記憶されたあととしてもよいし、サーバーにおいて任意のタイミングでエージェント情報記憶部5を参照して嗜好を抽出するようにしてもよい。エージェント情報記憶部5に記憶した情報に対して任意のタイミングで嗜好抽出を行うことで、複数のユーザの嗜好をまとめて抽出することができ、エージェント使用ユーザ全体の嗜好の傾向を調査することができる。
【0077】
また、一人のユーザが用途に応じた複数のエージェントを作成している場合に、複数のエージェントに反映されている嗜好を統合的に抽出するなど、さまざまな条件を設定して嗜好抽出ができる。
【0078】
[第2の実施の形態]
図11は、第2の実施の形態におけるエージェント作成装置の構成を示すブロック図である。本実施の形態においてはエージェント作成装置はサーバーとエージェント作成ユーザとから構成される。図1のデータ記憶部2とエージェント情報記憶部5と嗜好抽出部6とがサーバー側にあり、データ選択部3とエージェント作成部4とがエージェントを作成するユーザの端末にある。
【0079】
サーバーと端末はネットワークにより接続されている。エージェント作成サービスがサーバーで提供されていて、ユーザは端末からネットワークを通じてサーバーに接続し、エージェント作成を行う。データ記憶部2をサーバー側に置くことでエージェント作成用データの追加、編集が容易になり、データを常に最新のものにすることができる。また、エージェント情報記憶部5をサーバー側に置くことでエージェントを利用する全ユーザのエージェントの属性情報を参照して嗜好抽出を行うことができるため、嗜好抽出の度にユーザの端末にアクセスしてエージェントの属性情報を取る必要はない。さらに、エージェント作成部4をユーザ端末に置き、作成したエージェントをネットワークを通じてサーバーに取り込むことで、サーバーはエージェント作成を行う必要がなくなるため、サーバーの負荷軽減につながる。
【0080】
[第3の実施の形態]
図12は、第3の実施の形態におけるエージェント作成装置の構成を示すブロック図である。本実施の形態においてはエージェント作成装置はサーバーとエージェント作成ユーザとから構成される。
【0081】
図1の場合と異なり、エージェント作成部4がサーバー側に置かれ、ユーザの端末とネットワークを通じて接続されている。エージェント作成部4をサーバー側に置くことでユーザ端末からサーバーへエージェントを送る必要がなくなり、データ送信量を軽減する効果がある。
【0082】
なお、エージェント作成部4はサーバー、ユーザ端末のどちらに置いても何らかのメリット、デメリットがあり、どちらに置くことも可能である。
【0083】
[第4の実施の形態]
次に、本発明の第4の実施の形態におけるエージェント使用装置とその構成部について説明する。この実施の形態は、エージェントを作成したユーザが、エージェントを利用可能なネットワーク上のサービスを利用する際に用いられるエージェント使用装置に関するものである。
【0084】
図13は、本実施の形態に関するエージェント使用装置を含むシステムの構成を示す図である。
【0085】
図を参照して、システムはサーバーと、エージェント作成ユーザと、ネットワーク上サービス提供者と、エージェント作成装置1とから構成される。サーバー、エージェント作成ユーザ、ネットワーク上サービス提供者、エージェント作成装置1のそれぞれのハードウェアは、CPU、メモリ、入力装置、ディスプレイ、各種インターフェイス、ハードディスク、外部記憶装置などを備えたコンピュータにより実現される。
【0086】
サーバーは、情報提供部74と、参照部75と、エージェント制御部76とを含んでいる。エージェント作成ユーザは、エージェント表示部71と、エージェント選択部72と、エージェント使用部73とを含んでいる。ネットワーク上サービス提供者は、エージェント使用部78と、嗜好抽出部6と、利用データ記憶部77とを含んでいる。
【0087】
エージェント使用部73とエージェント制御部76との間、エージェント使用部78とエージェント制御部76との間は、それぞれネットワークにより接続されている。エージェント使用部73とエージェント使用部78とがエージェント制御部76を通じて通信をすることで、ユーザは、ネットワーク上のサービスをエージェントを用いて利用する。エージェント作成ユーザ側(ユーザ端末上)ではエージェント表示部71により、ネットワーク上のサービスの画面が表示されており、例えばユーザのエージェントとサービス側のエージェントが画面上で人間同士が話をしているような感じでやり取りをしている画面が表示される。
【0088】
エージェント表示部71、エージェント選択部72、およびエージェント使用部73はユーザ端末上のエージェント表示に関係する部材であるので、ユーザ端末上に置くことでエージェントの表示がスムーズに行われるようになる。参照部75はエージェント作成装置1に記憶されているエージェントを参照して、ユーザ名をキーにしてエージェントを検索し、エージェントと属性情報を取得し、エージェント制御部76に渡す機能を有する。なお、参照部75とエージェント作成装置1との接続はネットワークに限るものではない。
【0089】
エージェント制御部76をサーバーに置いて通信の仲介をすることで、情報提供部74によりエージェントが使用できるサービスの一覧をユーザに提供し、コミュニティのような役割を持たせることが可能になる。
【0090】
また、サービス提供者も嗜好情報を取得、利用することが可能となる。例えば衣服の販売をネットワーク上で行っているサービスの場合、その場で嗜好情報を分析することで、「よく似た服がありますよ」といった商品の勧め方が可能となる。
【0091】
また、サービス提供者を訪れたり実際にサービスを利用するユーザのエージェントの属性情報を利用データ記憶部77に記録し、嗜好抽出部6で分析することで新しい商品開発につなげたり、嗜好分析結果から品揃えの改善につなげられる効果が得られる。
【0092】
図14は、本実施の形態におけるエージェント使用装置を含むシステムが実行するエージェント使用方法の処理を示すフローチャートである。
【0093】
図を参照して、ステップS21でユーザがエージェントの使用を開始すると、ステップS22でエージェント制御部76に接続する。この際、情報提供部74がエージェントの利用できるサービス一覧を表示する。ステップS24でユーザは一覧から利用するサービスを選び、同時にエージェントを作成する際に指定したユーザ名を入力する。
【0094】
ステップS25ではエージェント作成装置1のエージェント情報記憶部5を参照して、入力されたユーザ名で検索してエージェントを取得する。このとき、複数のエージェントが検索された場合にはステップS27でエージェント選択部73によりどのエージェントでサービスを利用するかをユーザが選択する。ステップS28でサービス側のエージェント使用部78に接続し、サービスを利用するユーザのエージェントとその属性情報を送信する。ステップS29で、エージェント使用部78は、エージェントと属性情報を受取る。
【0095】
そしてステップS30で、エージェントの属性情報が利用データ記憶部77に記入される。後はステップS31からS35の間でエージェント制御部76を通じて2つのエージェント使用部73,78の間でエージェント制御用のデータやテキストデータを送受信してサービスの利用が終了されるまで通信を行う。
【0096】
図15は、ネットワーク上サービス提供者の利用データ記憶部77が記憶する情報の具体例を示す図である。
【0097】
図8に示されるエージェント情報と比較して、図15では不必要な項目を削除し、サービス側で嗜好抽出を行うために必要なもののみを記憶している。これはプライバシー等の関係から不必要な情報をサービス側に渡すのは良くないと考えられるためである。
【0098】
図中、ユーザIDはユーザ名に対応して付けられる、各ユーザ固有の番号である。その他の属性情報としては、エージェント情報記憶部5に記憶されている、使用したエージェントの属性情報が書き込まれる。なお、図15は一例でありデータの構造は、この形式に限定されるものではない。
【0099】
[第5の実施の形態]
次に、本発明の第5の実施の形態におけるエージェント使用装置とその構成部について説明する。この実施の形態は、エージェントを作成したユーザ同士がエージェントを用いて通信する際に使用するエージェント使用装置に関するものである。
【0100】
図16は本実施の形態における、エージェント使用装置の構成を示す図である。
【0101】
図13と同様に、エージェント作成ユーザ(ユーザ端末)にはユーザがエージェントを利用するためのエージェント表示部71、エージェント選択部72、およびエージェント使用部73が設けられている、別のエージェント使用ユーザ(他のユーザ端末)にもそれぞれエージェント表示部81、エージェント選択部82、およびエージェント使用部83が設けられている。
【0102】
エージェント制御部76とエージェント使用部73との間、エージェント使用部83とエージェント制御部76との間はネットワークで接続されている。参照部75はエージェント作成装置1に記憶されているエージェントを参照して、ユーザ名をキーにしてエージェントを検索し、エージェントと属性情報を取得し、エージェント制御部76に渡す部材である。なお、参照部75とエージェント作成装置1との接続はネットワークに限るものではない。
【0103】
エージェント制御部76はエージェントを利用するユーザ間でエージェントを用いた通信を行う。エージェント制御部76を通じた通信形式にすることで、チャット、コミュニティ、掲示板といったサービス提供者が自身のサービスの価値を高めるために本システムを利用することが可能となる。
【0104】
図17は、本実施の形態におけるエージェント使用装置が実行するエージェント使用方法の処理を示すフローチャートである。
【0105】
この処理は、図14と基本的には同様である。異なる所は、ユーザ同士の場合は嗜好抽出のために相手のエージェントの属性情報の記録を行わないことである。すなわち、図14のステップS30に対応する処理は図17には設けられていない。
【0106】
ステップS41からステップS49までは通信相手と接続するための操作であり、図14のステップS21からステップS29までの処理に対応する。ステップS50からステップS54までの処理においてユーザの間でエージェントを用いた通信が行われる(これは図14のステップS31からステップS35の処理に相当する)。
【0107】
なお、上述の実施の形態のいくつかを任意に組み合わせた装置を提供することとしてもよい。
【0108】
また、上述の実施の形態におけるフローチャートの処理を実行する方法やプログラムを提供することもできるし、そのプログラムをCD-ROM、フレキシブルディスク、ハードディスク、ROM、RAM、メモリカードなどの記録媒体に記録してユーザに提供することにしてもよい。また、プログラムはインターネットなどの通信回線を介して、装置にダウンロードするようにしてもよい。
【0109】
[実施の形態における効果]
第1の実施の形態によれば、ユーザは自分の好みに合わせたエージェントを簡単に作成することができる。また、エージェントの外見や好み、気の合う性格といった言語化しにくい内容を、ユーザはエージェント作成のためのデータを選択することでエージェントに反映させることができる。
【0110】
また、エージェント作成のためのデータを選択する行為を通じてユーザの潜在的、直感的な嗜好がエージェントに反映される。ユーザ自身も自分の好みを意識する必要がない。ユーザは、自分の好みや気の合う性格を反映させたエージェントに対して親近感を持つ可能性が高いため、それを好んで使用すると考えられる。
【0111】
また、第1の実施の形態によると、従来のようにエージェントをインターフェースとして使用するだけでなく、ユーザ自身の好みを反映させる表現部として使用することができる。
【0112】
また、データ選択部によりエージェント作成用データが選択された際に嗜好抽出部により嗜好抽出を行うようにすると、ユーザがエージェント作成時の選択操作を行った直後に、その内容を元に何らかの返信をすることが可能になり、リアルタイム的なサービスが可能になる。
【0113】
第2の実施の形態によれば、ネットワークにより接続されたサーバーと端末の間で通信を行ってエージェント作成を行うことができる。これにより、ユーザの端末にエージェント作成装置の構成部材を全て置くことなく、ネットワーク上のサービスとしてエージェント作成の機能を提供することが可能になる。
【0114】
また、各部材をネットワーク接続することで、エージェント作成用データの追加、編集が容易になり、データを常に最新のものにすることができる。さらに、エージェントを利用する全ユーザのエージェントの属性情報を参照して嗜好抽出を行うことができるため、嗜好抽出の度にユーザの端末にアクセスしてエージェントの属性情報を取得する必要がない。
【0115】
なお、エージェント情報記憶部にエージェントとエージェントの属性情報を記憶させた後で、エージェント情報記憶部に記録されている、エージェント選択部で選択された内容や設定情報を参照して、嗜好抽出部により嗜好抽出を行うようにし、エージェント作成のサービスを利用している全ユーザのデータを参照したり、一人のユーザが作成した複数のエージェントを参照したりして嗜好抽出を行うことができ、様々な条件を指定して色々な観点から嗜好抽出を行うことができる。
【0116】
第4の実施の形態においては、エージェント作成装置を用いて作成したエージェントをネットワーク上で使用することで、例えばオンライン販売を行うサイトにおいて作成されたエージェントを使用することができる。このようにすれば、使用されたエージェントに含まれている情報から利用したユーザの好みを知ることができる。
【0117】
実際の店舗を人間が訪れるように、オンライン店舗をエージェントが訪れるような形式にすれば、購入した場合だけでなく訪れただけでも嗜好調査の対象を行なうことができる。これにより幅広いユーザを対象に調査を行なうことができ、品揃え等をユーザの嗜好にあわせることで、サービスの改善につながる。
【0118】
第5の実施の形態においては、メールやチャットなどユーザ間でのコミュニケーションでエージェント作成装置により作成されたエージェントを用いることができる。エージェントの外見に反映される服装や髪型等、エージェントの話し方、動き方等に現れる内面的な性格からエージェント作成者の好み、性格、趣味等を窺い知ることができる。
【0119】
これにより、従来のネットワークを通じたコミュニケーションと比較して、文字情報以外の情報を送ることができる。そのため、共通の話題、趣味の発見や相手の性格、人となりの理解につながる。
【0120】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【図面の簡単な説明】
【図1】 第1の実施の形態におけるエージェント作成装置の概略構成を示すブロック図である。
【図2】 エージェント作成装置が実行するエージェント作成方法を示すフローチャートである。
【図3】 データ記憶部2の概略図である。
【図4】 データ保存部22のデータ記憶構造の具体例を示す図である。
【図5】 データ選択部3の概略図である。
【図6】 ユーザに対する表示内容のインターフェース例を示す図である。
【図7】 エージェント作成部4の概略図である。
【図8】 エージェント情報記憶部5に記憶されている内容の具体例を示す図である。
【図9】 嗜好抽出部6の概略図である。
【図10】 嗜好抽出部6の動作を示すフローチャートである。
【図11】 第2の実施の形態におけるエージェント作成装置の構成を示すブロック図である。
【図12】 第3の実施の形態におけるエージェント作成装置の構成を示すブロック図である。
【図13】 第4の実施の形態に関するエージェント使用装置を含むシステムの構成を示す図である。
【図14】 第4の実施の形態におけるエージェント使用装置を含むシステムが実行するエージェント使用方法の処理を示すフローチャートである。
【図15】 ネットワーク上サービス提供者の利用データ記憶部77が記憶する情報の具体例を示す図である。
【図16】 第5の実施の形態における、エージェント使用装置の構成を示す図である。
【図17】 第5の実施の形態におけるエージェント使用装置が実行するエージェント使用方法の処理を示すフローチャートである。
【符号の説明】
1 エージェント作成装置、2 データ記憶部、3 データ選択部、4 エージェント作成部、5 エージェント情報記憶部、6 嗜好抽出部、21 データ編集部、22 データ保存部、23 ID付与部、31 データ参照部、32 参照内容表示部、33 ユーザ選択受付部、34 データ転送部、41 データ受取部、42 画像貼付け部、43 合成部、44 エージェント書込部、61参照部、62 集計部、63 結果表示部、71 エージェント表示部、72エージェント選択部、73 エージェント使用部、74 情報提供部、75 参照部、76 エージェント制御部、77 利用データ記憶部、78 エージェント使用部、81 エージェント表示部、82 エージェント選択部、83 エージェント使用部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an agent creating apparatus, an agent using apparatus, and a method, and more particularly, to an agent creating apparatus, an agent using apparatus, and a method capable of creating an agent reflecting user preferences.
[0002]
[Prior art]
An agent is a moving image in the form of a person or the like that functions as a user interface. The agent appears on a screen of a computer or the like and interacts with the user or presents some information to the user.
[0003]
Conventionally, agents as characters have been studied as anthropomorphic user interfaces. In such a user interface, a character (agent) appears on the display of the computer, and the user can perform an operation as if actually interacting with a human.
[0004]
With regard to the agent, applications such as an electronic secretary and an electronic reception system have been proposed, and in fact, the agent has been realized as an acceptance interface in various scenes (for example, the Institute of Electronics, Information and Communication Engineers Intelligent and Complex Systems 121- 8 “Refer to next-generation television entertainment system using agents”, Research report of Information Processing Society of Japan, Human Interface 80-4 “Intelligent dialogue system using anthropomorphic characters”). All of these are created assuming a service interface on the WWW (World Wide Web).
[0005]
Japanese Patent Application Laid-Open No. 2-83727 and Japanese Patent Application Laid-Open No. 5-41894 disclose an apparatus that displays a character on a screen and guides how to use the device.
[0006]
In each of the above-described conventional technologies, a system providing a service or the like prepares an agent and responds to a user.
[0007]
As an environment that allows a user to create an agent, Microsoft MS-Agent Ver2.0 is known. In this environment, the user creates an agent by inputting a character and its motion using a dedicated tool. In this technique, an anthropomorphic character appears on the screen, and an agent corresponding to the user can be created using a speech balloon and voice by moving on the screen or pointing to an object.
[0008]
As described in Japanese Patent Laid-Open No. 10-307845 and Japanese Patent Laid-Open No. 2000-132618 as a method of preference survey, information browsing and product purchase history for each user is acquired and the contents are analyzed. As a conventional technique, there is a system for obtaining user preferences.
[0009]
In addition, a technique is known in which a viewing history of a television program is recorded, a program that the user likes is estimated from the contents, and a program that matches that is recommended to the user.
[0010]
[Problems to be solved by the invention]
It is difficult to create or design an original agent character with a conventional agent creation tool. Therefore, in many cases, a character prepared in advance is used as an agent. In the electronic secretarial system and the electronic reception system, human-like characters are used, but these are often created by designers and the like and cannot be easily created by the user.
[0011]
In the above-described agent creation apparatus, the user needs to create and design all agents, and the user himself / herself cannot easily create an agent.
[0012]
For this reason, there is currently no environment where users can easily create agents and use them for communication.
[0013]
On the other hand, in a method of recording user behavior when using a service as a preference survey, the user needs to actually use the service. When the service is charged, the number of users is small, and the accuracy of the preference survey is considered to be low. Moreover, the preference information that can be acquired is linguistic information indicating what the user has used and what the user has bought, and the conventional method cannot acquire preference information related to non-language information.
[0014]
Even when preference information is extracted by a questionnaire, the user often performs passively, and high-quality preference information cannot always be extracted.
[0015]
[Means for Solving the Problems]
The present invention has been made to solve the above-described problems. First, an object of the present invention is to provide an agent creating apparatus, an agent using apparatus, and a method by which a user can easily create an agent.
[0016]
A second object of the present invention is to provide an agent creating apparatus, an agent using apparatus and a method capable of extracting high-quality preference information.
[0017]
In order to achieve the above object, according to one aspect of the present invention, an agent creating device It is a component of clothing, hairstyle and other agents Data storage means for storing agent creation data; Based on user operations, Stored in the data storage means , Clothes, hairstyles and other agent components Data selection means for selecting desired data from agent creation data, agent creation means for creating an agent from data selected by the data selection means, agents created by the agent creation means, and selection by the data selection means Agent information storage means for storing the attribute information of the agent, which is at least one of the set contents, the user name that created the agent, and the setting information, and the data of one or more users stored in the agent information storage means Preference extraction means for analyzing and extracting preferences.
[0018]
Preferably, in the agent creation device, one or more of data storage means, data selection means, agent creation means, and agent information storage means exist on an external device and are connected through a network. To do.
[0019]
Preferably, the agent creation device is characterized in that when the agent creation data is selected by the data selection means, the preference extraction means performs preference extraction.
[0020]
Preferably, the agent creating apparatus refers to the content selected by the agent selecting means and the setting information recorded in the agent information storing means after the agent and the agent attribute information are stored in the agent information storing means. Thus, preference extraction is performed by preference extraction means.
[0021]
According to another aspect of the present invention, the agent using device includes agent display means for displaying an agent on the screen of the user terminal, Based on user operations, created by selecting desired one from agent creation data that is a component of clothes, hairstyle and other agents Multiple agents From , User An agent selection means for selecting an agent to be used, an agent use means for accepting an agent operation designation from a user who uses the agent, an information provision means for providing service information on a network that can be used by the agent, and an agent Agent control means for managing communication, reference means for referring to an agent, usage data storage means for storing attribute information of a user who references or uses a service usable by the agent, and one of the usage data storage means Alternatively, it includes preference extraction means for analyzing the attribute information of a plurality of users and extracting preferences.
[0022]
Preferably, part of the means of the agent using device exists in an external device and is connected through a network.
[0023]
According to another aspect of the present invention, the agent using device includes agent display means for displaying an agent on the screen of the user terminal, Based on user operations, created by selecting desired one from agent creation data that is a component of clothes, hairstyle and other agents Multiple agents From , User An agent selecting means for selecting an agent to be used, an agent using means for accepting designation of an agent operation from a user who uses the agent, an information providing means for providing information on a user who uses the agent, and an agent Agent control means for managing communication and reference means for referring to the agent are provided.
[0024]
Preferably, part of the means of the agent using device exists in an external device and is connected through a network.
[0025]
According to another aspect of the invention, an agent creation method includes: It is a component of clothing, hairstyle and other agents A data storage step for storing agent creation data; Based on user operations, Stored in the data storage step , Clothes, hairstyles and other agent components A data selection step for selecting a desired one from the data for agent creation, an agent creation step for creating an agent from the data selected in the data selection step, an agent created in the agent creation step, and a selection in the data selection step Agent information storage step for storing in the agent information storage means the agent attribute information, which is at least one of the generated contents, the user name that created the agent, and the setting information, and one person or An extraction step of analyzing data of a plurality of users and extracting preferences.
[0026]
According to another aspect of the present invention, an agent usage method includes an agent display step of displaying an agent on a screen of a user terminal; Based on user operations, created by selecting desired one from agent creation data that is a component of clothes, hairstyle and other agents Multiple agents From , User An agent selection step for selecting an agent to be used, an agent use step for accepting an agent operation designation from a user using the agent, an information provision step for providing service information on a network that can be used by the agent, and an agent An agent control step for managing communication; a reference step for referring to the agent; a usage data storage step for storing, in the usage data storage means, attribute information of a user who referred to or used a service usable by the agent; and usage data storage means A preference extracting step of analyzing attribute information of one or a plurality of users and extracting a preference.
[0027]
According to another aspect of the present invention, an agent usage method includes an agent display step of displaying an agent on a screen of a user terminal; Based on user operations, created by selecting desired one from agent creation data that is a component of clothes, hairstyle and other agents Multiple agents From , User An agent selection step for selecting an agent to be used, an agent use step for accepting specification of an agent operation from a user using the agent, an information providing step for providing information on a user using the agent, and an agent An agent control step for managing communication and a reference step for referring to the agent are provided.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an agent creating apparatus and an agent using apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[0029]
In the present embodiment, the agent functions as a user interface that is displayed on the screen and performs dialogue with the user or guidance to the user. It is also possible to create an agent that suits the user's preference regarding the agent's operation and appearance.
[0030]
Conventionally, an agent has been used as a user interface that appears on a screen of a computer or the like. In this embodiment, in addition to this, an agent can be used as a means for extracting preferences of an agent creator.
[0031]
In the present embodiment, the agent creating apparatus can specify a member that provides data for creating an agent and a photograph prepared by the user, and data that the user likes about the constituent elements of the agent such as clothes and hairstyles. And an agent creating member that can easily create an agent by using texture mapping or three-dimensional rendering of these images.
[0032]
This eliminates the need for the user to perform agent character design. In addition, by selecting data for agent creation by the agent creation device, the user can easily create agents having various appearances. In addition, by making it possible to easily create an agent similar to a specific person using a photograph, an effect that the usage of the agent is further expanded can be obtained.
[0033]
Further, in the prior art, in the preference survey, a history of operations and actions performed by the user is recorded, and linguistic information such as what is referred to is taken out as a preference.
[0034]
In the present embodiment, a preference extracting unit is provided in the agent creating device and the agent using device. In the agent creation device, the user creates an agent by combining his / her favorite agent creation data. The preference extraction unit refers to the data used for agent creation, counts the number of data used in accordance with the specified conditions, and displays the result of the preference survey with reference to the member storing the data .
[0035]
The agent using device includes an information providing unit that presents information on services and users on the network that uses the agent, and an agent control unit that mediates communication using the agent. In this way, not only creating an agent, but also providing information on the services that use the agent, and communicating with each other using the agent between the users who created the agent. Can be used for communication. As a result, it is possible for the user to have a meaning that the agent does not simply create the agent, but shows it to others.
[0036]
If the agent is shown to others, the psychology similar to the act of selecting one's clothes for the user works at the time of agent creation, and the user's preference is reflected unconsciously by the data selection performed at the time of agent creation. become.
[0037]
Therefore, as compared with the prior art, the potential preference of the user is naturally reflected in the agent through agent creation. In addition, since they are subjective and intuitive, which are difficult to express in words, it is possible to extract non-linguistic tastes, which was difficult with the conventional technique.
[0038]
That is, in the present embodiment, by analyzing the created agent, it is possible to grasp the user's potential preferences. In addition to external tastes based on images, agents are provided with different data, such as how they speak, personality, etc., and they are selected at the time of creation so that the personality of the created user is reflected in the agent. It is also possible to investigate the preference for the inner human nature such as personality.
[0039]
[First Embodiment]
FIG. 1 is a block diagram showing a schematic configuration of an agent creating apparatus according to the first embodiment.
[0040]
Referring to the figure, the agent creation device stores data for creating an agent and can add, delete, and edit data from the outside, and refer to data storage unit 2 for the contents. It shows to the user who creates the agent, receives the content selected by the user, retrieves the corresponding data from the data storage unit 2 and sends it to the agent creation unit 4, and the selected content is sent to the agent information storage unit 5 or the preference extraction unit 6. The data selection unit 3 to be sent to the agent, the data selection unit 3 to receive data, the user to receive the photo used for agent creation, the agent creation unit 4 that actually creates the agent, the type of data used at the time of agent creation Agent attribute information such as the user name that created the agent and the time the agent was created An agent information storage unit 5 that stores an agent created by the agent creation unit 4 and a preference extraction unit 6 that extracts preference information with reference to the contents received from the data selection unit 3 and the agent information storage unit 5. The
[0041]
The hardware configuration of the agent creation device is realized by a computer including a CPU, a memory, an input device, a display, various interfaces, a hard disk, an external storage device, and the like.
[0042]
FIG. 2 is a flowchart showing an agent creation method executed by the agent creation device.
[0043]
When the user starts creating an agent, the data selection unit 3 refers to the data storage unit 2 in step S1. In step S2, the content referred to in step S1 is presented to the user.
[0044]
Specifically, the agent's clothes, hairstyle, accessories, contents representing the inner personality of the agent, and the like are presented.
[0045]
In step S3, the user selects a content that suits his / her preference from the contents shown in step S2, and performs a selection operation. If you use a photo prepared by the user for creating an agent, specify it here. The contents selected and specified in step S3 are transferred to the agent creation unit 3, an agent is created in step S4, and the agent created in step S5 is stored in the agent information storage unit 5.
[0046]
On the other hand, the contents selected by the user when creating the agent in step S3 are written in the agent information storage unit 5 as attribute information of the created agent in step S6. In step S7, the preference extraction unit 6 refers to the agent information storage unit 5 and extracts the preference. The preference extraction unit 6 can also extract user preferences simultaneously with agent creation. It is also possible to perform preference extraction after agents of many users are created in the agent information storage unit 5.
[0047]
FIG. 3 is a schematic diagram of the data storage unit 2. The data editing unit 21 adds, deletes, and edits data to the data storage unit 22. In some cases, data editing is performed from outside via a network. Data is actually stored in the data storage unit 22. The ID assigning unit 23 assigns an ID and stores data when new data is added to the data storage unit 22 by the data editing unit 21.
[0048]
FIG. 4 is a diagram showing a specific example of the data storage structure of the data storage unit 22. The data storage unit 22 stores various data used for agent creation. The stored data is not a single image but data such as a three-dimensional model corresponding to various actions of the agent or a sample agent. An agent is created by combining various data stored in the data storage unit 22.
[0049]
The agent data ID in FIG. 4 is uniquely given to each piece of data. Which data is used to create the agent when the user creates the agent is managed using the ID.
[0050]
The keywords in FIG. 4 are for the data creator to give the contents related to the contents of the data, the image, the personality of the person who is likely to select this data, and the like.
[0051]
The agent creation data in FIG. 4 is data of a three-dimensional model used for agent creation or a sample agent itself.
[0052]
A3, B2, C4, and D7 in FIG. 4 are examples of IDs that the ID assigning unit 23 assigns to each data. The alphabet indicates the type of data, and the number after it indicates the number for identification within the type. The ID assigning method is not limited to this format.
[0053]
The data D7 in FIG. 4 is not used as a three-dimensional model, but is a sample created in advance to show internal features that are difficult to image such as the agent's personality and speech. As this kind of data, data created in advance as a sample agent is placed. The user tries to move the sample agent to determine whether the way of speaking, gestures, etc. suits his / her preference. The content of the data storage unit 22 is an example and is not limited to the format of FIG.
[0054]
FIG. 5 is a schematic diagram of the data selection unit 3.
Referring to the figure, the data selection unit 3 includes a data reference unit 31, a reference content display unit 32, a user selection reception unit 33, and a data transfer unit 34.
[0055]
The data reference unit 31 refers to the contents stored in the data storage unit 2. The reference content display unit 32 displays the data referenced by the data reference unit 31 to the user. The user selection accepting unit 33 receives the content of what the user has selected from the agent data displayed by the reference content display unit 32, and also when the agent is created using the photo prepared by the user Receive.
[0056]
The data transfer unit 34 transmits the agent creation data selected by the data selection unit 3 to the agent information storage unit 5 and the preference extraction unit 6 using the data ID selected by the user.
[0057]
FIG. 6 shows an example of an interface of display contents for the user, in which the data reference unit 31 displays the contents referring to the data storage unit 2 on the reference content display unit 32.
[0058]
As shown in the figure, elements necessary for creating clothes, hairstyles, belongings, agents with specific personalities and properties, etc. are displayed in terms of 3D models and words. The user selects a favorite one from these. In the example of FIG. 6, the clothes, hairstyle, and belongings are displayed as a three-dimensional model and can be selected by pressing a button or the like. On the other hand, the personality portion is indicated by a three-dimensional model of the agent created as a sample.
[0059]
When the user instructs to execute the sample agent, the agent is executed by a member included in the agent using device described later, and the agent moves on the user's screen with the set contents. At this time, the way of speaking, gestures, and the like are different for each sample agent, and the user selects the personality and gesture of the agent by selecting a favorite one.
[0060]
The user selection receiving unit 33 receives information about what is selected from the display contents and a photograph when the user uses it for creating an agent. The data transfer unit 34 passes the information obtained by the user selection receiving unit 33 to the agent information storage unit 5. In addition, the image itself or the photograph of the selected data is transferred to the agent creating unit 4.
[0061]
FIG. 7 is a schematic diagram of the agent creation unit 4.
The agent creation unit 4 creates an agent from the selected three-dimensional model and a given image.
[0062]
The data receiving unit 41 receives a 3D model and image data prepared by the user from the outside. The image pasting unit 42 creates an action animation of each agent by pasting the image data received by the data receiving unit 41 and the selected three-dimensional model. As an image creation method, a texture mapping method or a three-dimensional rendering method can be used. The composition unit 43 integrates the motion animations created by the image pasting unit 42 to create one agent having various motion animations. The agent writing unit 44 writes the agent created by the combining unit 43 in the agent information storage unit 5.
[0063]
FIG. 8 is a diagram illustrating a specific example of contents stored in the agent information storage unit 5.
[0064]
The agent created by the agent creating unit 4, the agent number, and attribute information of each agent are managed in a table format. The agent number is assigned to each agent when the agent is newly created. Agent attribute information is the name of the user who created the agent, the name given to the agent by the user, the purpose of selecting and determining the purpose of use of the created agent, the data ID used to create the agent, the date and time when the agent was created, The date and time when the agent was used and the number of times the agent was used. The data ID corresponds to the ID for each data shown as an example in FIG. Preference extraction is performed by managing individual agents with attribute information or referring to attribute information.
[0065]
The name of the user and the name given to the agent are determined by the user when the agent is created and can be modified. The purpose is to make it easy to distinguish the purpose of an agent created when the user uses a plurality of agents. An appropriate one is selected from the list when the agent is created. As the creation date and time, the time when the created agent was recorded in the agent information storage unit 5 is written. As the use date and time, the date and time when the agent was last used is recorded. Update this item every time the agent is used. The number of uses is the total number of times the agent has been used since it was created. The agent saving is a place where the agent created by the agent creating unit 4 is actually saved.
[0066]
The agent shown in FIG. 8 is not a still image but is stored as one agent including all animation data.
[0067]
FIG. 9 is a schematic diagram of the preference extraction unit 6.
Referring to the figure, preference extraction unit 6 includes a reference unit 61, a totaling unit 62, and a result display unit 63.
[0068]
The reference unit 61 includes attribute information of the agent information storage unit 5 in which information at the time of agent creation is stored, and an ID of the data storage unit 2 in which the correspondence between image data used for agent creation and its ID is recorded. And so on.
[0069]
The totaling unit 62 calculates how much data with which ID is selected based on the content referred to by the reference unit 61, the transition of the number of time-series data selections, and the like. The result display unit 63 displays the contents aggregated by the aggregation unit 62.
[0070]
FIG. 10 is a flowchart showing the operation of the preference extraction unit 6.
Referring to the figure, in step S11, the reference unit 61 refers to the content of the first agent number 1 in the agent information storage unit 5. In steps S12 and S13, the part of the attribute information that matches the condition set at the time of preference extraction is investigated. The conditions set at the time of preference extraction are as follows.
[0071]
(1) Target all agents
(2) Select and aggregate only specific uses
(3) Identify and aggregate users
(4) Identify and tabulate when agents were created
(5) Aggregate only frequently used agents
These conditions can be specified in combination.
[0072]
If the attribute information of the target agent satisfies the condition, the agent creation data ID is referred to. If not, the next agent number data is referenced in step S17. If the condition is satisfied, the IDs recorded in the agent creation data ID are sequentially referenced in step S14. Then, the counting unit 62 counts up the number of referenced IDs. This is performed for all the recorded IDs. If all the recorded IDs are referred to in step S15, the process proceeds to step S16.
[0073]
When the contents of the agent information storage unit 5 are as shown in FIG. 8 and the agent ID of the agent number 2 is referred to, the number of A23, D4, and E22 used in the counting unit 62 is incremented by one. In step S16, if the referred agent is the last agent number, the process proceeds to step S18. Otherwise, the process proceeds to step S17 to refer to the next agent. In step S18, the contents of the totaling unit 62 are displayed on the result display unit 63. At this time, the reference unit 61 refers to the data storage unit 2 to refer to the agent creation data and the keyword stored in association with the data based on the ID.
[0074]
The result display unit 63 displays corresponding agent creation data and corresponding keywords as preferences in accordance with the contents of the totaling unit 62. As a result, it is possible to obtain the result that many users like the content of the most frequently selected agent creation data, and it is possible to infer the preference tendency from the keywords associated with the agent creation data Become. Note that the preference extraction method described above is an example, and other methods are possible.
[0075]
Note that the timing at which the preference extraction unit 6 performs preference extraction may be immediately after the user selects data to be used for agent creation by the data selection unit 3. By performing preference extraction immediately after selection, it is possible to provide a service that returns a reply immediately after analyzing the selection content from the server side to the user in the form of personality diagnosis, fortune-telling, and the like.
[0076]
The preference extraction unit 6 may perform the preference extraction after the agent and attribute information are stored in the agent information storage unit 5, or by referring to the agent information storage unit 5 at an arbitrary timing in the server. You may make it extract. By performing preference extraction on information stored in the agent information storage unit 5 at an arbitrary timing, it is possible to extract the preferences of a plurality of users at once, and to investigate the tendency of preferences of the entire agent user. it can.
[0077]
In addition, when a single user creates a plurality of agents according to usage, preference extraction can be performed by setting various conditions such as extracting the preferences reflected in the plurality of agents in an integrated manner.
[0078]
[Second Embodiment]
FIG. 11 is a block diagram illustrating a configuration of the agent creation device according to the second embodiment. In this embodiment, the agent creation apparatus is composed of a server and an agent creation user. The data storage unit 2, the agent information storage unit 5, and the preference extraction unit 6 in FIG. 1 are on the server side, and the data selection unit 3 and the agent creation unit 4 are on the user terminal that creates the agent.
[0079]
The server and the terminal are connected by a network. An agent creation service is provided on the server, and a user connects to the server through a network from a terminal to create an agent. Placing the data storage unit 2 on the server side makes it easy to add and edit agent creation data, and the data can always be kept up-to-date. In addition, by placing the agent information storage unit 5 on the server side, preference extraction can be performed with reference to the attribute information of agents of all users who use the agent. Therefore, the user terminal is accessed every time preference extraction is performed. There is no need to take agent attribute information. Furthermore, by placing the agent creating unit 4 on the user terminal and taking the created agent into the server through the network, the server does not need to create an agent, leading to a reduction in server load.
[0080]
[Third Embodiment]
FIG. 12 is a block diagram illustrating a configuration of an agent creation device according to the third embodiment. In this embodiment, the agent creation apparatus is composed of a server and an agent creation user.
[0081]
Unlike the case of FIG. 1, the agent creation unit 4 is placed on the server side and connected to the user terminal through the network. Placing the agent creation unit 4 on the server side eliminates the need to send an agent from the user terminal to the server, and has the effect of reducing the data transmission amount.
[0082]
Note that the agent creation unit 4 has some merits and demerits when placed on either the server or the user terminal, and can be placed on either.
[0083]
[Fourth Embodiment]
Next, an agent using device and its components according to the fourth embodiment of the present invention will be described. This embodiment relates to an agent using device used when a user who creates an agent uses a service on a network that can use the agent.
[0084]
FIG. 13 is a diagram showing a configuration of a system including an agent using device according to the present embodiment.
[0085]
Referring to the figure, the system includes a server, an agent creation user, a network service provider, and an agent creation device 1. The hardware of each of the server, the agent creating user, the network service provider, and the agent creating apparatus 1 is realized by a computer including a CPU, a memory, an input device, a display, various interfaces, a hard disk, an external storage device, and the like.
[0086]
The server includes an information providing unit 74, a reference unit 75, and an agent control unit 76. The agent creation user includes an agent display unit 71, an agent selection unit 72, and an agent use unit 73. The network service provider includes an agent use unit 78, a preference extraction unit 6, and a usage data storage unit 77.
[0087]
The agent use unit 73 and the agent control unit 76 and the agent use unit 78 and the agent control unit 76 are connected by a network, respectively. The agent using unit 73 and the agent using unit 78 communicate with each other through the agent control unit 76, so that the user uses a service on the network using the agent. On the agent creating user side (on the user terminal), the agent display unit 71 displays a service screen on the network. For example, the user agent and the agent on the service side are talking with each other on the screen. The screen that is communicating with a feeling is displayed.
[0088]
Since the agent display unit 71, the agent selection unit 72, and the agent use unit 73 are members related to agent display on the user terminal, the agent display can be smoothly performed by placing the agent display unit 71, the agent selection unit 72, and the agent use unit 73 on the user terminal. The reference unit 75 has a function of referring to an agent stored in the agent creating apparatus 1, searching for an agent using a user name as a key, acquiring the agent and attribute information, and passing it to the agent control unit 76. The connection between the reference unit 75 and the agent creation device 1 is not limited to the network.
[0089]
By placing the agent control unit 76 on the server and mediating communication, the information providing unit 74 can provide the user with a list of services that can be used by the agent and can have a community-like role.
[0090]
Also, the service provider can acquire and use the preference information. For example, in the case of a service that sells clothes on a network, it is possible to recommend products such as “I have similar clothes” by analyzing the preference information on the spot.
[0091]
Also, attribute information of the agent of the user who visits the service provider or actually uses the service is recorded in the usage data storage unit 77 and analyzed by the preference extraction unit 6 to lead to new product development or from the preference analysis result. An effect that leads to an improvement in the product lineup can be obtained.
[0092]
FIG. 14 is a flowchart showing processing of an agent using method executed by a system including an agent using device according to the present embodiment.
[0093]
Referring to the figure, when the user starts using the agent in step S21, the user is connected to the agent control unit 76 in step S22. At this time, the information providing unit 74 displays a list of services available to the agent. In step S24, the user selects a service to be used from the list, and at the same time inputs the user name designated when creating the agent.
[0094]
In step S25, the agent information storage unit 5 of the agent creation device 1 is referred to search for the input user name to obtain the agent. At this time, when a plurality of agents are searched, the user selects which agent uses the service by the agent selection unit 73 in step S27. In step S28, the service is connected to the agent use unit 78 on the service side, and the agent of the user who uses the service and its attribute information are transmitted. In step S29, the agent using unit 78 receives the agent and attribute information.
[0095]
In step S30, the attribute information of the agent is entered in the usage data storage unit 77. Thereafter, between step S31 and S35, the agent control data and text data are transmitted and received between the two agent using units 73 and 78 through the agent control unit 76, and communication is performed until the use of the service is terminated.
[0096]
FIG. 15 is a diagram illustrating a specific example of information stored in the usage data storage unit 77 of the service provider on the network.
[0097]
Compared with the agent information shown in FIG. 8, unnecessary items are deleted in FIG. 15, and only the items necessary for preference extraction on the service side are stored. This is because it is considered that it is not good to pass unnecessary information to the service side because of privacy and the like.
[0098]
In the figure, the user ID is a number unique to each user assigned in correspondence with the user name. As other attribute information, the attribute information of the used agent stored in the agent information storage unit 5 is written. FIG. 15 is an example, and the data structure is not limited to this format.
[0099]
[Fifth Embodiment]
Next, an agent using device and its components according to the fifth embodiment of the present invention will be described. This embodiment relates to an agent using device used when users who have created agents communicate with each other using the agent.
[0100]
FIG. 16 is a diagram showing the configuration of the agent using device in the present embodiment.
[0101]
Similarly to FIG. 13, the agent creating user (user terminal) is provided with another agent using user (agent display unit 71, agent selecting unit 72, and agent using unit 73 for the user to use the agent). Each of the other user terminals is also provided with an agent display unit 81, an agent selection unit 82, and an agent use unit 83.
[0102]
The agent control unit 76 and the agent use unit 73 and the agent use unit 83 and the agent control unit 76 are connected by a network. The reference unit 75 is a member that refers to the agent stored in the agent creating apparatus 1, searches for an agent using the user name as a key, acquires the agent and attribute information, and passes the agent and attribute information to the agent control unit 76. The connection between the reference unit 75 and the agent creation device 1 is not limited to the network.
[0103]
The agent control unit 76 performs communication using an agent between users using the agent. By adopting a communication format through the agent control unit 76, service providers such as chat, community, and bulletin board can use this system to increase the value of their services.
[0104]
FIG. 17 is a flowchart showing processing of an agent usage method executed by the agent usage apparatus according to the present embodiment.
[0105]
This process is basically the same as FIG. The difference is that, in the case of users, the attribute information of the partner agent is not recorded for preference extraction. That is, the process corresponding to step S30 in FIG. 14 is not provided in FIG.
[0106]
Steps S41 to S49 are operations for connecting to the communication partner, and correspond to the processing from step S21 to step S29 in FIG. In the processing from step S50 to step S54, communication using an agent is performed between users (this corresponds to the processing from step S31 to step S35 in FIG. 14).
[0107]
Note that an apparatus in which some of the above-described embodiments are arbitrarily combined may be provided.
[0108]
It is also possible to provide a method or program for executing the processing of the flowchart in the above-described embodiment, and record the program on a recording medium such as a CD-ROM, a flexible disk, a hard disk, a ROM, a RAM, or a memory card. May be provided to the user. The program may be downloaded to the apparatus via a communication line such as the Internet.
[0109]
[Effects of the embodiment]
According to the first embodiment, the user can easily create an agent according to his / her preference. In addition, the contents that are difficult to translate into language, such as the appearance and preferences of the agent and the personality that suits the user, can be reflected on the agent by selecting the data for creating the agent.
[0110]
In addition, the user's potential and intuitive preferences are reflected in the agent through the act of selecting data for creating the agent. Users themselves do not need to be aware of their preferences. The user is likely to have an affinity for an agent that reflects his / her preference and personality, so it is considered that he / she likes it.
[0111]
According to the first embodiment, the agent can be used not only as an interface as in the prior art but also as an expression unit that reflects the user's own preferences.
[0112]
In addition, if the preference extraction unit performs preference extraction when agent creation data is selected by the data selection unit, immediately after the user performs the selection operation at the time of agent creation, a reply is made based on the contents. Real-time service becomes possible.
[0113]
According to the second embodiment, an agent can be created by communicating between a server and a terminal connected via a network. This makes it possible to provide an agent creation function as a service on the network without placing all the components of the agent creation device on the user terminal.
[0114]
Further, by connecting each member to the network, it becomes easy to add and edit data for creating an agent, and the data can always be updated. Furthermore, since preference extraction can be performed with reference to the attribute information of agents of all users who use the agent, it is not necessary to access the user's terminal and acquire agent attribute information each time preference is extracted.
[0115]
After storing the agent and agent attribute information in the agent information storage unit, the preference extraction unit refers to the content selected in the agent selection unit and the setting information recorded in the agent information storage unit. Preference extraction can be performed, and data can be extracted by referring to the data of all users who use the agent creation service or by referencing multiple agents created by one user. It is possible to extract preferences from various viewpoints by specifying conditions.
[0116]
In the fourth embodiment, by using an agent created using an agent creation device on a network, an agent created at a site that sells online, for example, can be used. In this way, it is possible to know the user's preference utilized from the information included in the used agent.
[0117]
If an agent visits an online store just as a human visits an actual store, a preference survey can be conducted not only when purchasing but also visiting. As a result, it is possible to survey a wide range of users, and to improve the service by matching the user's preference to the product lineup.
[0118]
In the fifth embodiment, an agent created by the agent creating device by communication between users such as mail and chat can be used. It is possible to know the preferences, personality, hobbies, etc. of the creator of the agent from the internal personality that appears in the way the agent speaks and moves, such as the clothes and hairstyle reflected in the appearance of the agent.
[0119]
Thereby, it is possible to send information other than character information as compared with communication through a conventional network. Therefore, it leads to common topics, discovery of hobbies, personality of the other party, and understanding of the person.
[0120]
The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of an agent creation device according to a first embodiment.
FIG. 2 is a flowchart showing an agent creation method executed by the agent creation device.
FIG. 3 is a schematic diagram of a data storage unit 2;
4 is a diagram showing a specific example of a data storage structure of a data storage unit 22. FIG.
FIG. 5 is a schematic diagram of a data selection unit 3;
FIG. 6 is a diagram illustrating an example of an interface of display contents for a user.
FIG. 7 is a schematic diagram of an agent creation unit 4;
FIG. 8 is a diagram showing a specific example of contents stored in the agent information storage unit 5;
FIG. 9 is a schematic diagram of a preference extraction unit 6;
FIG. 10 is a flowchart showing the operation of the preference extraction unit 6;
FIG. 11 is a block diagram illustrating a configuration of an agent creation device according to a second embodiment.
FIG. 12 is a block diagram illustrating a configuration of an agent creation device according to a third embodiment.
FIG. 13 is a diagram illustrating a configuration of a system including an agent using device according to a fourth embodiment.
FIG. 14 is a flowchart showing processing of an agent using method executed by a system including an agent using device according to the fourth embodiment.
FIG. 15 is a diagram illustrating a specific example of information stored in a usage data storage unit 77 of a network service provider.
FIG. 16 is a diagram illustrating a configuration of an agent using device according to a fifth embodiment.
FIG. 17 is a flowchart showing processing of an agent using method executed by an agent using device according to the fifth embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Agent preparation apparatus, 2 Data storage part, 3 Data selection part, 4 Agent preparation part, 5 Agent information storage part, 6 Preference extraction part, 21 Data edit part, 22 Data storage part, 23 ID provision part, 31 Data reference part 32 Reference content display unit 33 User selection reception unit 34 Data transfer unit 41 Data reception unit 42 Image pasting unit 43 Composition unit 44 Agent writing unit 61 Reference unit 62 Totaling unit 63 Result display unit 71 Agent display section 72 Agent selection section 73 Agent use section 74 Information provision section 75 Reference section 76 Agent control section 77 Usage data storage section 78 Agent use section 81 Agent display section 82 Agent selection section 83 Agent using part.

Claims (7)

服装、髪型その他のエージェントの構成要素であるエージェント作成用データを各前記構成要素に関係するキーワードに対応付けて記憶するデータ記憶手段と、
ユーザの操作に基づき、前記データ記憶手段に記憶された、服装、髪型その他のエージェントの構成要素であるエージェント作成用データから所望のものを選択するデータ選択手段と、
前記データ選択手段で選択されたデータからエージェントを作成するエージェント作成手段と、
前記エージェント作成手段により作成されたエージェント、ならびに、前記データ選択手段により選択された内容、エージェントを作成したユーザ名、および設定情報の少なくとも1つであるエージェントの属性情報を記憶するエージェント情報記憶手段と、
前記エージェント情報記憶手段に記憶された、1人または複数ユーザのデータを分析して嗜好を抽出する嗜好抽出手段とを備え
前記嗜好抽出手段は、前記エージェント情報記憶手段にエージェントとエージェントの属性情報が記憶された後に、前記エージェント情報記憶手段に記録されている、前記データ選択手段により選択された内容や設定情報を参照して、前記キーワードを前記1人または複数ユーザの嗜好として抽出する、エージェント作成装置。
Data storage means for storing agent creation data, which is a constituent element of clothing, hairstyle and other agents, in association with a keyword related to each of the constituent elements ;
Data selecting means for selecting a desired one from agent creation data that is a component of clothes, hairstyle, and other agents stored in the data storage means based on a user operation;
Agent creation means for creating an agent from the data selected by the data selection means;
An agent created by the agent creating means, and an agent information storing means for storing attribute information of the agent which is at least one of contents selected by the data selecting means, a user name that created the agent, and setting information; ,
A preference extraction unit that analyzes data of one or more users stored in the agent information storage unit and extracts preferences ;
The preference extracting means refers to the contents and setting information selected by the data selecting means recorded in the agent information storing means after the agent and agent attribute information are stored in the agent information storing means. An agent creation device that extracts the keyword as a preference of the one or more users .
前記データ記憶手段、前記データ選択手段、前記エージェント作成手段、および前記エージェント情報記憶手段のうちの一つ以上が外部の装置上に存在してネットワークを通じて接続されていることを特徴とする、請求項1に記載のエージェント作成装置。  The one or more of the data storage unit, the data selection unit, the agent creation unit, and the agent information storage unit exist on an external device and are connected through a network. 1. The agent creation device according to 1. 前記データ選択手段によりエージェント作成用データが選択された際に、前記嗜好抽出手段により嗜好抽出を行うことを特徴とする、請求項1に記載のエージェント作成装置。  2. The agent creation apparatus according to claim 1, wherein when the agent creation data is selected by the data selection means, preference extraction is performed by the preference extraction means. ユーザ端末の画面にエージェントを表示するエージェント表示手段と、
ユーザの操作に基づき、各構成要素に関係するキーワードに対応付けられた服装、髪型その他のエージェントの構成要素であるエージェント作成用データから所望のものを選択して作成された複数のエージェントから、ユーザが使用するエージェントを選択させるエージェント選択手段と、
エージェントを使用するユーザからエージェントの動作の指定を受付けるエージェント使用手段と、
エージェントが使用できるネットワーク上のサービス情報を提供する情報提供手段と、
エージェントを用いた通信を管理するエージェント制御手段と、
エージェントを参照する参照手段と、
エージェントが使用可能なサービスを参照または利用したユーザの属性情報を記憶する利用データ記憶手段と、
前記利用データ記憶手段の中の1人または複数ユーザの属性情報を分析して、嗜好を抽出する嗜好抽出手段とを備え
前記嗜好抽出手段は、前記エージェント情報記憶手段にエージェントとエージェントの属性情報が記憶された後に、前記エージェント情報記憶手段に記録されている、前記データ選択手段により選択された内容や設定情報を参照して、前記キーワードを前記1人または複数ユーザの嗜好として抽出する、エージェント使用装置。
Agent display means for displaying the agent on the screen of the user terminal;
Based on the user's operation, the user can select from a plurality of agents created by selecting desired ones from the agent creation data, which are the components of clothes, hairstyles, and other agents associated with the keywords related to each component. Agent selection means for selecting the agent used by
Agent usage means for accepting agent behavior specifications from users who use the agent,
An information providing means for providing service information on the network that the agent can use;
Agent control means for managing communication using the agent;
A reference means for referring to the agent;
Usage data storage means for storing attribute information of users who have referred to or used services available to agents;
Analyzing preference information of one or a plurality of users in the usage data storage means, and extracting a preference ;
The preference extracting means refers to the contents and setting information selected by the data selecting means recorded in the agent information storing means after the agent and agent attribute information are stored in the agent information storing means. An agent using device that extracts the keyword as a preference of the one or more users .
前記手段の一部が外部の装置に存在して、ネットワークを通じて接続されていることを特徴とする、請求項5に記載のエージェント使用装置。  6. The agent using apparatus according to claim 5, wherein a part of said means exists in an external apparatus and is connected through a network. 服装、髪型その他のエージェントの構成要素であるエージェント作成用データを各前記構成要素に関係するキーワードに対応付けて記憶するデータ記憶ステップを備え、
ユーザの操作に基づき、前記データ記憶ステップで記憶された、服装、髪型その他のエージェントの構成要素であるエージェント作成用データから所望のものを選択するデータ選択ステップと、
前記データ選択ステップにより選択されたデータからエージェントを作成するエージェント作成ステップと、
前記エージェント作成ステップにより作成されたエージェント、ならびに、前記データ選択ステップにより選択された内容、エージェントを作成したユーザ名、および設定情報の少なくとも1つであるエージェントの属性情報をエージェント情報記憶手段に記憶するエージェント情報記憶ステップと、
前記エージェント情報記憶手段に記憶された、1人または複数ユーザのデータを分析して嗜好を抽出する抽出ステップとを備え、
前記抽出ステップは、前記エージェント情報記憶手段にエージェントとエージェントの属性情報とが記憶された後に、前記エージェント情報記憶手段に記録されている、前記データ選択手段により選択された内容や設定情報を参照して、前記キーワードを前記1人または複数ユーザの嗜好として抽出するステップを含む、エージェント作成方法。
A data storage step of storing agent creation data, which is a constituent element of clothes, hairstyle, and other agents, in association with a keyword related to each of the constituent elements ;
A data selection step for selecting a desired one from agent creation data, which is a component of clothes, hairstyle, and other agents, stored in the data storage step, based on a user operation;
An agent creation step of creating an agent from the data selected in the data selection step;
The agent information storing means stores the agent created by the agent creating step, the content selected by the data selecting step, the user name that created the agent, and the agent attribute information that is at least one of the setting information. An agent information storage step;
Extracting the preference by analyzing data of one or more users stored in the agent information storage means,
The extraction step refers to the content and setting information selected by the data selection means recorded in the agent information storage means after the agent and agent attribute information are stored in the agent information storage means. And extracting the keyword as a preference of the one or more users .
ユーザ端末の画面にエージェントを表示するエージェント表示ステップと、
ユーザの操作に基づき、各前記構成要素に関係するキーワードに対応付けられた服装、髪型その他のエージェントの構成要素であるエージェント作成用データから所望のものを選択して作成された複数のエージェントから、ユーザが使用するエージェントを選択させるエージェント選択ステップと、
エージェントを使用するユーザからエージェントの動作の指定を受付けるエージェント使用ステップと、
エージェントが使用できるネットワーク上のサービス情報を提供する情報提供ステップと、
エージェントを用いた通信を管理するエージェント制御ステップと、
エージェントを参照する参照ステップと、
エージェントが使用可能なサービスを参照または利用したユーザの属性情報を利用データ記憶手段に記憶する利用データ記憶ステップと、
前記利用データ記憶手段の中の1人または複数ユーザの属性情報を分析して、嗜好を抽出する嗜好抽出ステップとを備え
前記嗜好抽出ステップは、前記エージェント情報記憶手段にエージェントとエージェントの属性情報とが記憶された後に、前記エージェント情報記憶手段に記録されている、前記データ選択手段により選択された内容や設定情報を参照して、前記キーワードを前記1人または複数ユーザの嗜好として抽出するステップを含む、エージェント使用方法。
An agent display step for displaying the agent on the screen of the user terminal;
Based on the user's operation, from a plurality of agents created by selecting a desired one from agent creation data that is a component of clothes, hairstyle and other agents associated with the keywords related to each of the components , An agent selection step for selecting the agent to be used by the user;
An agent usage step for accepting an agent action specification from a user using the agent;
An information providing step for providing service information on the network that the agent can use;
An agent control step for managing communication using the agent;
A reference step to reference the agent;
A usage data storage step of storing, in the usage data storage means, attribute information of a user who has referred to or used a service usable by the agent;
Analyzing the attribute information of one or more users in the usage data storage means, and extracting a preference ,
In the preference extraction step, after the agent and the agent attribute information are stored in the agent information storage means, refer to the contents and setting information selected by the data selection means recorded in the agent information storage means Then, the method of using an agent , comprising the step of extracting the keyword as a preference of the one or more users .
JP2001380207A 2001-12-13 2001-12-13 Agent creating apparatus, agent using apparatus and method Expired - Fee Related JP4071491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001380207A JP4071491B2 (en) 2001-12-13 2001-12-13 Agent creating apparatus, agent using apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001380207A JP4071491B2 (en) 2001-12-13 2001-12-13 Agent creating apparatus, agent using apparatus and method

Publications (2)

Publication Number Publication Date
JP2003186589A JP2003186589A (en) 2003-07-04
JP4071491B2 true JP4071491B2 (en) 2008-04-02

Family

ID=27591349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001380207A Expired - Fee Related JP4071491B2 (en) 2001-12-13 2001-12-13 Agent creating apparatus, agent using apparatus and method

Country Status (1)

Country Link
JP (1) JP4071491B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102004984A (en) * 2009-08-31 2011-04-06 索尼公司 Information processing apparatus, program and information processing system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8826129B2 (en) * 2009-01-21 2014-09-02 International Business Machines Corporation Multi-touch device having a bot with local and remote capabilities
JP5398361B2 (en) * 2009-06-01 2014-01-29 株式会社日立製作所 Data analysis system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102004984A (en) * 2009-08-31 2011-04-06 索尼公司 Information processing apparatus, program and information processing system

Also Published As

Publication number Publication date
JP2003186589A (en) 2003-07-04

Similar Documents

Publication Publication Date Title
US9313045B2 (en) System and method for providing avatar with variable appearance
US20020054163A1 (en) User support method and user support apparatus
JP3859018B2 (en) 3D virtual reality space sharing method, 3D virtual reality space sharing system, address management method, and address management server terminal
WO2002013060A1 (en) Online used car information retrieval system
US10341424B1 (en) Annotations of objects in multi-dimensional virtual environments
CN104685502B (en) For the system and method for the content that online content is associated with to the second index
US20090158161A1 (en) Collaborative search in virtual worlds
US20090125481A1 (en) Presenting Media Data Associated with Chat Content in Multi-Dimensional Virtual Environments
US8140460B2 (en) Character outfit autoconfiguration device, character outfit autoconfiguration method, and character outfit autoconfiguration program
CN107103019A (en) Promote the interaction between social network user
JP2002082748A (en) User support device
JP2009510607A (en) Computer-implemented system and method for homepage customization and e-commerce support
WO2009146087A1 (en) Open framework for integrating, associating and interacting with content objects
US20090147009A1 (en) Video creating device and video creating method
CN115212561B (en) Service processing method based on voice game data of player and related product
JP2001195430A (en) System for expediting knowledge sharing
KR100372225B1 (en) An apparatus for creating homepage, a method for automatically converting the homepage and method for discriminating to view the homepage
JP2001184289A (en) Chat system and information offering system on internet including the chat system
JP2001195428A (en) Device for retrieving associative information
JP4071491B2 (en) Agent creating apparatus, agent using apparatus and method
JP2002123574A (en) Construction support system, server device for construction support system and construction supporting method
US20040039583A1 (en) Information space providing system and method
JP2006235671A (en) Conversation device and computer readable record medium
Stoica et al. An architecture to support personalized interaction across multiple digitally augmented spaces
KR20040030016A (en) A method for providing blog service by using 3d graphical display module and a system thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees