JP3898185B2 - 音声提供システム、サーバ、クライアントマシン及び音声提供方法 - Google Patents

音声提供システム、サーバ、クライアントマシン及び音声提供方法 Download PDF

Info

Publication number
JP3898185B2
JP3898185B2 JP2003582630A JP2003582630A JP3898185B2 JP 3898185 B2 JP3898185 B2 JP 3898185B2 JP 2003582630 A JP2003582630 A JP 2003582630A JP 2003582630 A JP2003582630 A JP 2003582630A JP 3898185 B2 JP3898185 B2 JP 3898185B2
Authority
JP
Japan
Prior art keywords
information
voice
server
user
client machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003582630A
Other languages
English (en)
Other versions
JPWO2003085511A1 (ja
Inventor
信之 大塚
廉 森本
由佳 山田
洋 九津見
信夫 北尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2003085511A1 publication Critical patent/JPWO2003085511A1/ja
Application granted granted Critical
Publication of JP3898185B2 publication Critical patent/JP3898185B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Description

【0001】
【技術分野】
本発明は、家庭用電化製品等で実現される各クライアントマシン同士の会話から、人間が情報を間接的に受け取るシステムと、各クライアントマシン同士の会話に対する人間の応答に関する情報を抽出して個人の嗜好情報を収集する音声提供システムおよびその方法に関する。
【0002】
【背景技術】
従来のデータ遅延機能を有する情報表示システムを開示する刊行物として、特開2000−348095号公報(以下、「刊行物1」という)が挙げられる。この刊行物1に記載のシステムは、サーバ装置が、センタ装置から受信した相場情報のうち、特定の条件を満たす情報を、特定の時間だけ遅延してクライアントマシンに送信する情報表示システムである。すなわち、センタ装置から受信した相場情報のうちリアルタイム表示が不要な情報を、特定の時間だけ遅延して表示する遅延表示を行って情報料を低減し、ランニングコストを低減する情報提供システムである。
【0003】
特開2001−243284号公報は、利用者の嗜好情報をインターネット環境を利用して嗜好や趣味の情報を逐次収集してマーケットのリサーチに適用した趣味・嗜好解析システム及びマーケットリサーチ方法を開示している。
【0004】
特開2001−188787号公報は、コンピュータを用いてユーザに楽しく自然な会話を提供する会話処理装置および会話処理方法を開示している。
【0005】
刊行物1に記載のシステムの構成について、図1を用いて説明する。情報表示システムは、センタ装置(不図示)からデータを受信してLANを介して送信するサーバ装置1と、サーバ装置1とLANによって接続され、サーバ装置1から送信されたデータを受信して表示する複数のクライアントマシン2とから構成されている。ここで、サーバ装置1は、センタ装置から受信した各データがリアルタイム表示か遅延表示かという遅延表示情報を管理しており、当該遅延表示情報を情報提供会社に提供する。
【0006】
サーバ装置1は、通信回線を介してセンタ装置からのデータを受信する受信部11と、受信したデータをリアルタイム表示用データと遅延表示用データとに分別して出力する制御部12と、遅延表示用データを一定時間蓄積して出力するディレイ部13と、送信用のデータを蓄積する蓄積部14と、蓄積部14に蓄積されているデータを送信する送信部15とから構成されている。
【0007】
次に、刊行物1に記載のシステムの動作について説明する。制御部12は、受信データを、クライアントマシン2にてリアルタイム表示を行うものと遅延表示するものとに分別するものであり、ワークメモリ等の記憶エリアに遅延表示用データを識別するための基準となる遅延条件を記憶している。具体的には、制御部12は、受信部11にて受信されたデータが入力されると、当該データが遅延条件を満たすデータ(遅延表示用データ)であるか否かを判断し、遅延表示用データであればディレイ部13に出力し、遅延表示用データでなければ蓄積部14に出力する。遅延条件は、遅延表示用データを規定するものであり、ここでは遅延条件として特定の取引所名が設定されている。これにより、当該取引所名を含むデータは遅延して表示されるが、それ以外のデータはリアルタイム表示される。
【0008】
蓄積部14に入力される遅延表示用データの表示を遅延させる時間である遅延時間は予め設定されている。操作部(図示せず)からのユーザの遅延条件及び遅延時間に関する入力に従って、制御部12にて遅延条件と共に遅延時間を記憶しておき、ディレイ部13が制御部12から設定された遅延時間で動作を行うようにしてもよい。サーバ装置1において、遅延条件や遅延時間をユーザが任意に設定することが可能であるため、ユーザのニーズに合わせた遅延表示を行うことができる効果がある。蓄積部14が遅延表示用データを保持する時間は、操作部からの操作によって予め設定されている遅延時間であり、通常、取引所情報料がかからない程度の時間に設定される(本システムでは20分)。
【0009】
また、サーバ装置1は、各データがリアルタイム表示用データか遅延表示用データかという遅延表示情報を管理しており、当該情報を情報提供会社に提供する。
【0010】
刊行物1の別の実施形態に係る情報表示装置では、サーバ装置とクライアントマシンとを一体に形成した装置とし、通信回線から受信したデータをサーバ装置が自ら再生して画像を表示する。ここでは、サーバ装置は、受信部と、制御部と、ディレイ部と、蓄積部と、表示部とから構成されており、図1に示した情報表示システムの送信部15の代わりに表示部が設けられている点と、サーバ装置とクライアントマシンとがLANで接続されていない点が上記サーバ装置1とは異なっている。制御部が、ユーザ名(ユーザ毎の識別番号)毎に、遅延条件及び遅延時間を対応させて記憶しておくことにより、ユーザ毎に対応した遅延表示を行うことも可能である。遅延条件は、ユーザ毎に対応した遅延表示を行う情報表示装置の制御部に記憶されている。
【0011】
上記いずれの情報表示システムの場合も、予め設定された特定のデータを一定時間遅延させて表示することが特徴となっている。すなわち、上記従来技術は、受信した株などの情報を所定の時間後(たとえば20分の遅延時間)にクライアントマシンに伝送することで、取引所情報を免除されるサービスを利用するための情報表示装置である。従って、従来の情報表示装置では、遅延時間は一定であり、伝送時に遅延させるかどうかに関する判断を行うだけであった。
【0012】
このように、従来の情報表示システムでは、サーバ装置が複数のクライアントマシンそれぞれへ会話を構成する話声を内容とする会話ファイルを送信して、複数のクライアントマシンが、複数のクライアントマシン同士で会話などを行うように、受信した会話ファイルを再生することができなかった。すなわち、複数のクライアントマシンそれぞれに送信される会話ファイルの再生時間が異なるので、各クライアントマシン間で会話をしているようなタイミングで会話ファイルを再生するには、会話ファイルの再生タイミングの調整が重要となるため、従来のような一定の遅延時間の下で処理される情報表示装置では、複数のクライアントマシン同士で会話などを行うように、受信した会話ファイルを再生することは、実現不可能であった。
【0013】
特に各クライアントマシンが、異なる抑揚の音声を再生するために異なるゴーストが設定されている場合には、同じ内容の会話ファイルであっても、各クライアントマシンで会話ファイルの再生時間が異なることになるため、従来のように所定の遅延時間を用いて会話ファイルの再生タイミングを調整していては、タイミング良く会話を構成するように会話ファイルを再生することができない。ここで、「ゴースト」とは、擬似人格を含むキャラクタのデータである。例えば、代表的なゴーストの愛称には、「SHIORI」などがある。なお、ゴーストを搭載するクライアントマシンのコアとなるプログラムは、「本体」と呼ばれており、「吹き出し」に表示される文章のソースデータを記述するためのスクリプトの処理などを行っている。なお、「吹き出し」とは、機器の表示部に表示されるキャラクタのセリフを表示するためのスペースである。また、例えば、代表的な本体の愛称には、「何か」などがある。
【0014】
また、従来の技術では、ユーザに情報を提供するという機能を有してはいるが、提供した情報に対するユーザの応答に基づき次のアクションを起こすとか、各クライアントマシンが、ネットワークを通じて会話のバックグラウンドを共有して、ゴースト同士で会話をしているように会話ファイルを再生するといった機能は有していない。
【0015】
また、映像情報に同期して音声情報を生成する場合には、映像情報の再生タイミングに合うように音声情報の再生タイミングを調整して再生する必要があったが、上記従来技術では、画一的な情報の表示を行うのみであり、映像情報にあわせて情報を表示する方法が提供されていなかった。
【0016】
さらに、上記従来技術では、情報を提供するだけであり、提供した情報のユーザにとっての必要性をフィードバックして情報を提供するシステムは示されてなかった。
【0017】
【発明の開示】
本発明の目的は、会話情報の再生タイミングの調整が複雑でなく、各クライアントマシン間で会話をしているように会話情報を再生可能な音声提供システム、サーバ、クライアントマシン及び情報提供方法を提供することである。
【0018】
本発明は、サーバに通信可能に接続された複数のクライアントマシンが、このサーバから配信された音声情報を再生してユーザに音声を提供する音声提供システムにおいて、前記サーバは、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする複数の話声音声情報を格納する記憶手段と、前記話声音声情報それぞれの再生タイミングを決定するタイミング決定手段と、前記複数の話声音声情報からクライアントマシン毎に対応する前記話声音声情報を送信する送信手段とを有し、前記クライアントマシンは、送信された前記話声音声情報を前記サーバの決定した再生タイミングで再生する音声再生手段を有し、前記タイミング決定手段は、決定されたタイミングを示すタイミング情報を作成し、前記送信手段は、前記話声音声情報と伴に、前記話声音声情報毎に対応する前記タイミング情報を送信する
【0019】
また、本発明は、サーバに通信可能に接続された複数のクライアントマシンが、このサーバから配信された音声情報を再生してユーザに音声を提供する音声提供システムにおいて、前記サーバは、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする複数の話声音声情報を格納する記憶手段と、前記話声音声情報それぞれの再生タイミングを決定するタイミング決定手段と、前記複数の話声音声情報からクライアントマシン毎に対応する前記話声音声情報を送信する送信手段とを有し、前記クライアントマシンは、送信された前記話声音声情報を前記サーバの決定した再生タイミングで再生する音声再生手段を有し、前記タイミング決定手段は、前記再生タイミングに合わせて、前記送信手段に前記話声音声情報を送信させる。
【0020】
また、本発明は、複数のクライアントマシンが通信可能に接続され、このクライアントマシンに音声情報を送信し、送信した音声情報を再生させるサーバであって、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする複数の話声音声情報を格納する記憶手段と、前記複数の話声音声情報の再生タイミングを決定するタイミング決定手段と、前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、対応する前記クライアントマシンに送信する送信手段とを有し、前記タイミング決定手段は、決定されたタイミングを示すタイミング情報を作成し、前記送信手段は、前記話声音声情報と伴に、前記話声音声情報毎に対応する前記タイミング情報を送信する。
【0021】
また、本発明は、複数のクライアントマシンが通信可能に接続され、このクライアントマシンに音声情報を送信し、送信した音声情報を再生させるサーバであって、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする複数の話声音声情報を格納する記憶手段と、前記複数の話声音声情報の再生タイミングを決定するタイミング決定手段と、前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、対応する前記クライアントマシンに送信する送信手段とを有し、前記タイミング決定手段は、前記再生タイミングに合わせて、前記送信手段に前記話声音声情報を送信させる。
【0022】
また、本発明のサーバは、前記記憶手段は、前記クライアントそれぞれの擬似人格に対応した内容の前記話声音声情報を複数格納し、前記送信手段は、前記話声音声情報の内容に対応した擬似人格を有する前記クライアントに、前記話声音声情報を送信することを特徴としてもよい。
【0023】
また、本発明のサーバは、前記タイミング決定手段は、決定されたタイミングを示すタイミング情報を作成し、前記送信手段は、前記話声音声情報と伴に、前記話声音声情報毎に対応する前記タイミング情報を送信してもよい。なお、本発明のサーバは、前記タイミング決定手段は、前記再生タイミングに合わせて、前記送信手段に前記話声音声情報を送信させてもよい。
【0024】
また、本発明のサーバは、インターネットを通じて前記話声音声情報の会話内容の基になる提供情報を検索して収集する検索手段と、収集した前記提供情報を基に前記話声音声情報を作成して、前記記憶手段に格納させる音声情報作成手段とを更に有し、前記検索手段は、映像情報をこの映像情報に付された前記映像情報の内容を示すタグによって検索して収集し、前記音声情報作成手段は、前記タグを用いて前記話声音声情報を作成し、前記送信手段は、前記クライアントマシン毎に対応する前記話声音声情報と前記映像情報とを送信してもよい。
【0025】
また、本発明のサーバは、情報提供サーバによる情報の提供を管理する情報提供管理サーバと通信可能に接続され、前記情報提供管理サーバを介して、前記話声音声情報の会話内容の基になる提供情報を受信する受信手段と、前記話声音声再生情報の再生期間中及び再生期間後の所定期間に収集された、前記クライアントマシンを使用するユーザの音声を示すユーザ音声情報を前記クライアントマシンから受信するユーザ音声受信手段と、前記受信したユーザ音声情報を基にユーザの反応を分析する分析手段と、分析したユーザの反応を示すユーザ反応情報を前記情報提供管理サーバへ送信する情報送信手段とを更に有し、前記受信手段は、前記情報提供管理サーバによって前記ユーザ反応情報に基づいて選別された、前記提供情報を受信してもよい。
【0026】
本発明は、インターネットを通じて前記話声音声情報の会話内容の基になる提供情報を検索して収集する検索手段と、収集した前記提供情報を基に前記話声音声情報を作成して、前記記憶手段に格納させる音声情報作成手段と、前記話声音声再生情報の再生期間中及び再生期間後の所定期間に収集された、前記クライアントマシンを使用するユーザの音声を示すユーザ音声情報を前記クライアントマシンから受信するユーザ音声受信手段と、前記受信したユーザ音声情報を基にユーザの反応を分析する分析手段とを更に有し、前記検索手段は、分析したユーザの反応が否定的な反応である場合に、当該反応がなされた音声と同種類の提供情報の検索頻度を下げてもよい。これに代えて、前記検索手段は、分析したユーザの反応が肯定的な反応である場合に、当該反応がなされた音声と同種類の提供情報の検索頻度を上げてもよい。
【0027】
本発明は、情報提供サーバによる情報の提供を管理する情報提供管理サーバと通信可能に接続され、前記情報提供管理サーバを介して、前記話声音声情報の会話内容の基になる提供情報を受信する受信手段と、前記話声音声再生情報の再生期間中又は再生期間後の所定期間における、ユーザの反応を示すユーザ反応情報を前記複数のクライアントマシンから受信するユーザ反応情報受信手段と、前記受信したユーザ反応情報の前記情報提供管理サーバへの送信をユーザが許可するかどうかを判定する判定手段と、前記判定手段によって送信を許可すると判定された前記ユーザ反応情報のみを、前記情報提供管理サーバへ送信するユーザ反応情報送信手段とを更に有し、前記受信手段は、前記情報提供管理サーバによって前記ユーザ反応情報に基づいて選別された前記提供情報を受信してもよい。
【0028】
また、本発明は、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする複数の話声音声情報を作成して、前記話声音声情報の再生タイミングを決定し、通信可能に接続された複数のクライアントマシンに、再生タイミングで再生される前記話声音声情報を送信するサーバに対して、前記話声音声情報の会話内容を決定する基になる提供情報の提供を管理する情報提供管理サーバにおいて、前記提供情報を提供する情報提供サーバに対して、この情報のサーバへの送信を要求する要求手段と、この要求手段が要求したときに、前記提供情報を提供する機会を与えた対価としての料金の支払いを前記情報提供サーバに請求する料金請求手段とを有する。
【0029】
本発明は、前記クライアントマシンに再生された話声音声情報に対するユーザの反応を示すユーザ反応情報を、前記サーバから受信し、前記受信したユーザ反応情報に基づいて、前記ユーザ反応情報を送信したサーバを用いるユーザの嗜好を示す嗜好データを生成する嗜好データ生成手段と、前記情報提供サーバに対して、ネットワークを介して、生成した嗜好データを送信する送信手段とを更に有し、前記料金請求手段は、前記嗜好データの送信に対する対価である料金を、前記情報提供サーバに請求する。
【0030】
また、本発明は、他のクライアントマシンと共にサーバへ通信可能に接続され、このサーバから配信された音声情報を再生してユーザに音声を提供するクライアントマシンにおいて、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を、前記サーバから受信する音声情報受信手段と、前記サーバの決定した再生タイミングで送信された話声音声情報を再生する音声再生手段とを有し、前記音声情報受信手段は、前記サーバによって決定された再生タイミングを示すタイミング情報を、前記話声音声情報と伴に受信する
【0031】
また、本発明は、他のクライアントマシンと共にサーバへ通信可能に接続され、このサーバから配信された音声情報を再生してユーザに音声を提供するクライアントマシンにおいて、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を、前記サーバから受信する音声情報受信手段と、前記サーバの決定した再生タイミングで送信された話声音声情報を再生する音声再生手段とを有し、前記音声情報受信手段は、前記サーバによって決定された再生タイミングに合わせて送信される前記話声音声情報を受信する。
【0032】
本発明は、複数のクライアントマシンが接続されるサーバが、このクライアントマシンに音声情報を配信し、配信した音声情報を再生させる音声再生方法であって、前記サーバが、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を複数格納する音声情報格納するステップと、前記サーバが、この話声音声情報それぞれの再生タイミングを決定するタイミング決定ステップと、前記サーバが、前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、対応する前記クライアントマシンに送信する音声情報送信ステップとを含み、前記タイミング決定ステップでは、決定されたタイミングを示すタイミング情報が作成され、前記音声情報送信ステップでは、前記話声音声情報と伴に、前記話声音声情報毎に対応する前記タイミング情報が送信される
【0033】
本発明は、複数のクライアントマシンが接続されるサーバが、このクライアントマシンに音声情報を配信し、配信した音声情報を再生させる音声再生方法であって、前記サーバが、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を複数格納する音声情報格納するステップと、前記サーバが、この話声音声情報それぞれの再生タイミングを決定するタイミング決定ステップと、前記サーバが、前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、前記タイミング決定ステップにおいて決定された前記再生タイミングに合わせて、対応する前記クライアントマシンに送信する音声情報送信ステップとを含む。
【0034】
本発明は、複数のクライアントマシンに音声情報を配信し、配信した音声情報を再生させるための音声再生プログラムであって、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を格納する音声情報格納手段と、この話声音声情報それぞれの再生タイミングを決定するタイミング決定手段と、前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、対応する前記クライアントマシンに送信する音声情報送信手段として前記サーバを機能させ、前記タイミング決定手段は、決定されたタイミングを示すタイミング情報を作成し、前記送信手段は、前記話声音声情報と伴に、前記話声音声情報毎に対応する前記タイミング情報を送信する。
【0035】
本発明は、複数のクライアントマシンに音声情報を配信し、配信した音声情報を再生させるための音声再生プログラムであって、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を格納する音声情報格納手段と、この話声音声情 報それぞれの再生タイミングを決定するタイミング決定手段と、前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、対応する前記クライアントマシンに送信する音声情報送信手段として前記サーバを機能させ、前記タイミング決定手段は、前記再生タイミングに合わせて、前記音声情報送信手段に前記話声音声情報を送信させる。
【0036】
【発明を実施するための最良の形態】
以下、本発明の各実施の形態による表示装置について図面を参照しながら説明する。
(実施の形態1)
本発明の第1の実施の形態について図2〜図4を用いて説明する。図2は、本発明の第1の実施の形態にかかる音声提供システムを示すシステム構成図である。本音声提供システムは、提供する会話情報や映像情報等の提供情報の中に情報提供者からの宣伝(コマーシャル)などの情報も含んでおり、これらの情報をユーザu1〜u3に提供することで、情報提供者から運営資金を得ている。なお、ここでは、提供情報システムを用いてユーザu3に提供情報が提供される場合について説明し、情報と資金の流れをA1〜A5、C1に示す。
【0037】
本実施の形態にかかる音声提供システムは、インターネットなどの通信網に接続されたLAN(local Area Network)24と、LAN24に接続され、会話ファイル(話声音声情報)等の音声情報を生成するサーバ22と、LAN24に接続され、会話ファイルを再生してユーザに音声情報を提供する手段(例えば、音源、スピーカ等)を有する複数のクライアントマシン23とよりなる。なお、会話ファイルとは、会話を構成する話声を内容とし、複数の会話ファイルの再生タイミングが調整されることで、各クライアントマシン23が会話をしているように音声が出力される。
【0038】
本実施の形態にかかる音声提供システムでは、サーバ22が、インターネット等の通信網を介して、情報提供センター21(情報提供管理サーバ)と情報提供者37(情報提供サーバ)と接続される。この情報提供センター21と情報提供者37とは、互いに通信網を介して接続されている。
【0039】
サーバ22は、例えばテレビなどの映像情報を蓄積しておくハードディスク内蔵映像情報サーバなどをベースにして構成され、矢印A2、矢印A5のように情報提供センター21等から提供された提供情報を受信している。ここで、提供情報とは、映像情報、音声情報等の、会話ファイルの会話の基になる情報を含み、商品の広告宣伝や、天気、スポーツ、政治等のニュース等の情報である。なお、サーバ22は、本実施の形態では、各クライアントマシン23と同じ建物内に備え付けられているホームサーバであるが、必ずしもこの限りではない。
【0040】
クライアントマシン23は、家庭用電化製品等であり、例えば音響再生装置を有した電子レンジ・炊飯器・掃除機・食器洗浄機などの台所機器、電灯などの照明機器、ステレオなどの音響機器、エアコンや扇風機などの空調機器、電話やインターホンなどの通信機器、置物・時計・ソファーなどのインテリア、かばんや服などのアウターである。また、クライアントマシン23は、映像表示装置と音響再生装置を有したパーソナルコンピュータ・2次元および3次元TVモニタ・携帯端末や腕時計などの情報機器、家庭用ロボットやおもちゃなどの娯楽機器、冷蔵庫・洗濯機・学習机・コタツ・壁・カーテン・家具・絵画・健康器具などに作りこまれたスクリーン、前記機器で構成されたトイレ・風呂・寝室・居間・自動車などのスペースなどであってもよい。各クライアントマシン23には、IP(Internet Protocol)アドレスが割り振られており、サーバ22から矢印A3のように、送られてきた映像情報や、音声情報を含む音響情報を再生する機能を有している。
【0041】
情報提供者37は、メーカや小売店などであり、情報を的確にユーザに提供するために、矢印A1、A2で示すように、情報提供センター21を通じて提供情報を必要とするユーザに対して選択的に配信している。また、情報提供者37は、矢印A5で示すように、検索機能などを用いて、直接サーバ22に検索されることによって、提供情報をサーバ22に直接配信することもできる。
【0042】
情報提供センター21(情報提供管理サーバ)は、提供情報の配信を管理し、矢印A2に示すように情報(提供情報)をクライアントマシン23に配信すると同時に、矢印C1に示すように、取り扱い情報量に応じた情報配信費用を情報提供者37に課金している。なお、情報提供センター21は、プロバイダであってもよい。情報提供センター21は、ユーザの嗜好アンケートやユーザの設定(例えば、ユーザの年齢、性別)などの選別情報を基に選別した提供情報を矢印A2に示すようにユーザに提供する。
【0043】
サーバ22は、次の機能のうち少なくとも一つ以上の機能を有する。1.ユーザの嗜好に合致するインターネット上の提供情報を検索し、収集する。2.特定の情報提供センター37からユーザの嗜好に重点化した提供情報を受信する。3.各クライアントマシン23のゴースト情報(各クライアントマシン23の有する擬似人格を示す情報)を収集する。4.収集した提供情報を基に、ゴーストに応じて複数のクライアント23間で交わす会話を構成する会話ファイル(話声音声情報)を生成する。5.各クライアントマシン23の内蔵時計情報(内蔵時計の時間を示す情報)を収集する。6.各クライアントマシン23が会話を開始する(話声音声情報を再生する)時刻である再生開始時刻を決定し、再生開始時刻を示す再生時刻タイムテーブルを生成する。7.会話ファイル(話声音声情報)を、対応するクライアントマシンすなわち会話ファイルを再生すべきクライアントマシン23に会話ファイル(話声音声情報)を送信する。8.クライアントマシン23で収集したユーザの音声を示すユーザ音声情報を解析する。9.解析したユーザ音声情報結果とユーザに提供した情報とを関連付け、ユーザの嗜好を示す嗜好情報を情報提供センター21に送付する。なお、嗜好情報は、ユーザの好む情報を示し、例えば、スポーツに関する情報が提供されているときに、ユーザの肯定的な応答が多かった場合には、ユーザがスポーツに関する情報を好むことを示す。なお、嗜好情報には、ユーザの提供情報に対する反応を示すユーザ反応情報も含まれる。
【0044】
また、クライアントマシン23は次の機能のうち少なくとも一つ以上を有する。1.サーバ22から送られてきた会話ファイルを再生する。2.サーバ22から送られてきた映像ファイルを再生する。3.ユーザの音声をユーザ音声情報として収集する。4.ユーザ音声情報をサーバ22に伝送する。
【0045】
また、情報提供センター21は次の機能のうち少なくとも一つ以上を有する。1.ユーザの嗜好に応じてユーザに提供する提供情報を選択し、サーバに提供情報を伝送する。2.ユーザの嗜好情報をサーバ22から受信する。3.情報提供者がユーザに提供情報を提供した情報量に応じて、提供情報を提供する機会を与えた対価としての情報提供料の支払いを情報提供者37に請求する。
【0046】
図3は、図2に示す音声提供システム及び情報提供センター21の主要機能を示すブロック図である。本実施の形態にかかる音声提供システムは、ユーザの設定したサイトから情報を収集する、あるいは検索エンジンを用いてインターネット上の情報を収集する。本実施の形態にかかる音声提供システムは、LAN24に、サーバ22と複数のクライアントマシン23とが接続されているが、ここでは、複数のクライアントマシン23のうちの一のクライアントマシン23を代表して説明する。
【0047】
サーバ22は、検索部25、蓄積部26、会話生成部27、遅延データ生成部28、データ合成部29、送信部30、嗜好分析部38よりなる。検索部25は、検索手段と受信手段として機能し、検索エンジン等を用いてユーザに必要な映像情報や音声情報、テキスト情報等の提供情報を検索して収集する。蓄積部26は、記憶手段として機能し、検索した映像情報や音声情報、テキスト情報などを蓄積する。会話生成部27は、音声情報作成手段として機能し、蓄積した映像情報や音声情報の映像ファイルや会話ファイルに付随しているタグや、テキスト情報から複数の話者からなる会話をテキストベースで作成する。ここで、映像ファイルや会話ファイルに付随しているタグは、映像ファイルの映像や会話ファイルの会話の内容を示すキーワードであり、映像ファイルや会話ファイルをネットワーク上で検索するときに使用される。
【0048】
その後、会話生成部27は、各クライアントマシン23のゴーストに応じて、テキストベースで作成された会話から音声ファイルである会話ファイルを生成し、蓄積部26に格納させる。また、「ゴースト」とは、擬似人格を含むキャラクタのデータである。例えば、代表的なゴーストの愛称には、「SHIORI」などがある。なお、ゴーストを搭載するクライアントマシンのコアとなるプログラムは、「本体」と呼ばれており、「吹き出し」に表示される文章のソースデータを記述するためのスクリプトの処理などを行っている。
【0049】
遅延データ生成部28は、タイミング決定手段として機能し、各ゴースト23の会話ファイルの再生時間に応じて再生開始時刻(再生タイミング)を設定した再生時刻タイムテーブルを作成する。例えば、各ゴーストの会話ファイルの再生時間が重ならないように、一の会話ファイルの再生が終了後、次の会話ファイルが再生されるように、再生開始時刻が設定される。
【0050】
データ合成部29は、映像ファイルや会話ファイルに再生時刻タイムテーブルに記載された再生開始時刻を付与する。送信部30は、送信手段として機能し、映像ファイル及び会話ファイルを対応するクライアントマシン23のIP(Internet Protocol)アドレスに送信する。嗜好分析部38は、ユーザ音声受信手段、分析手段及び情報送信手段として機能し、各クライアントマシン23が収集したユーザの音声からユーザの嗜好を分析して検索式を調整する。なお、嗜好分析部38も、ユーザの音声を収集する機能を有し、収集したユーザの音声から検索式を調整することも可能である。
【0051】
一方、クライアントマシン23は、受信部32、蓄積部320、音声再生部33、情報伝達部34、映像表示部35、情報収集部36及び送信部360よりなる。受信部32は、音声情報受信手段として機能し、サーバ22から送られてきた会話ファイル及び映像ファイルを受信する。蓄積部320は、ハードディスクや半導体メモリなどの蓄積デバイスで実現され、受信部32の受信した会話ファイル及び映像ファイルを蓄積するとともに、会話ファイル及び映像ファイルに付与された再生時刻タイムテーブルの示す所定の時刻に、会話ファイルを音声再生部33に、映像ファイルを映像表示部35に伝送する。
【0052】
音声再生部33は、音声再生手段として機能し、伝送された会話ファイルを再生する。情報伝達部34は、スピーカなどで実現され、再生された会話ファイルの音声を出力し、ユーザに提供する。映像表示部35は、映像表示手段として機能し、表示制御部やLCD(Liquid Crystal Display)等で実現され、受信した映像ファイルを再生して映像を表示する。情報収集部36は、録音機能を有し、ユーザの発する音声などを収集する。送信部360は、収集したユーザの音声を示すユーザ音声情報をファイルに変換してサーバ22へ送信する。
【0053】
情報提供セーバ21は、要求部51と請求部52とを有する。要求部51は、要求手段として機能し、情報提供者37に対して、提供情報のサーバ22への送信を要求する。請求部52は、料金請求手段として機能し、要求部51が要求したときに、提供情報を提供する機会を与えた対価としての料金の支払いを情報提供者37に請求する。
【0054】
以下、この音声提供システムの動作について図4及び図5を用いて説明する。図4は、図2に示す音声提供システムが実行する情報制御処理の一例を示すフローチャートである。まず、ステップS1で、検索部25が、検索エンジンを用いてインターネット等の通信網を通じて常時ユーザに必要な提供情報を検索する。例えば、ユーザの所望する提供情報を示すキーワードを検索部25が記憶し、このキーワードに合致する提供情報を検索する等の方法で検索する。
【0055】
提供情報に含まれる映像情報は、複数の映像ファイルのセットからなり、各映像ファイルには、その映像ファイルのイベント内容を示すタグがテキスト情報で付与されているため、キーワードと一致するタグが付与されている映像ファイルを検索する等、このタグを利用して検索を行うことが可能である。また、ユーザの設定したサイトから、検索されてもよく、例えばニュース速報提供サイトが設定されている場合には、ニュース速報サイトから検索されてもよい。
【0056】
次に、情報提供者37が検索部25の検索に合致した提供情報を提供している場合には、情報提供者37は、図2の矢印A5で示すように、検索に合致した提供情報を検索部25に送信し(S2)、この提供情報を、検索部25が受信する(S3)。もちろん、ここで検索部25は、情報提供者37ではなく、他の情報提供者から提供情報を取得してもよい。次に、ステップS4の情報提供処理(音声提供処理)が実行される。
【0057】
図5は、図4に示す情報提供処理を示すフローチャートの一例である。ここでは、サーバ22で生成される会話ファイルの再生タイミングをとる第1の手段として、各クライアントマシン23の音声再生スピードを基にあらかじめ計算した再生開始時刻に従って、クライアントマシン23が次の会話の再生を始めるシステムを示す。
【0058】
まず、検索部25が受信した映像情報、音楽情報、音声情報などの情報、及びニュースなどのテキスト情報を提供情報として蓄積部26に蓄積する(S21)。会話生成部27は、各クライアントマシン23に、各クライアントマシン23のゴーストの特徴を示すゴースト情報の送信を指示する(S22)。この指示を受信した各クライアントマシン23の送信部360は、ゴースト情報をサーバ22へ送信する(S23)。
【0059】
通信手段としての機能を有する検索部25を介して、会話生成部27が、このゴースト情報を受信し、各クライアントマシン23のゴーストに応じたテキストベースの会話を作成する。例えば、ゴースト情報は、ゴーストの会話速度及び各クライアントマシン23のゴーストの性格(陽気、楽観的、陰気、悲観的等)を表すパラメータを示し、陽気な性格を表すパラメータが、他のクライアントマシンより高い場合には、明るい内容の会話を明るい口調で話すような会話がテキストベースで作成される。
【0060】
会話生成部27は、映像情報を構成する複数の映像ファイルにテキスト情報で付与されたその映像ファイルのイベント内容を示すタグの内容を基に会話を構成する。このタグは、検索部25が検索に用いるタグと同じであってもよい。映像ファイルはイベント(例えば、映像ファイルの内容に生じた重大な事象)が開始したところで分割されており、分割された映像ファイル毎に、分割された位置に(例えば分割された映像ファイルの先頭の位置に)タグが付与され、一連の映像情報となるように各映像ファイルの再生順番が決められている。例えば、ビルに飛行機が衝突する場面を示す映像情報では、飛行機がビルに追突した瞬間を示す映像を境に、映像ファイルは2分割されている。そして、分割された前部の映像ファイルには、「飛行機、ビル、衝突前」などのタグを付与されており、後部の映像ファイルには、「飛行機、ビル、衝突の瞬間、ビル炎上」などのタグが付与されている。このタグで会話ファイルが作成され、作成された会話ファイルが映像ファイルと同期して再生されると、映像の内容に対応した音声が出力されることとなる。
【0061】
以上は、映像ファイルのポイント(イベントが生じた位置)で分割して、タグが付与されているが、映像ファイルが、イベント内容とその再生開始時刻とを記したタイムテーブルを付加されていても良い。この場合には、イベント内容を示す情報を用いて会話ファイルが作成され、会話ファイルのイベント内容と対応する映像ファイルの再生開始時刻に合わせて、会話ファイルが再生されるのである。この方法は、映像ファイル中に多くのイベントが分散しているときに有効であり、映像ファイルが分割されていなくてもよいため、再生時の画像の連続性が良くなる。また、音楽情報には、演奏者、作詞作曲者、曲の内容、カテゴリー、テンポなどのタグが付与されているので、会話生成部27は、このタグを利用して会話を生成してもよい。
【0062】
上述のようにタグが用いられて、会話がテキストベースで生成される。例えば上述の映像ファイルのタグが用いられた場合、飛行機がビルに追突した瞬間以前の会話ファイルは、次のような会話を示す。クライアントマシンcl1の会話は、「陽子ちゃん、なんだかすごい映像が入ったようだよ。」、クライアントマシンcl2(ゴーストでは、陽子)の会話は、「なあに」、続く、クライアントマシンcl1の会話は、「これから飛行機がビルに衝突するんだって。良く見ていたほうがいいよ」となる。
【0063】
また、飛行機がビルに追突した瞬間より後の会話は、クライアントマシンcl2の会話は「あっ」、クライアントマシンcl1の会話は「飛行機がほんとにぶつかった」、クライアントマシンcl2の会話は「みて、ビルが燃えているわよ」となる。
【0064】
上述のように各機器(各クライアントマシン23)のゴースト情報がサーバ22に取り込まれているが、会話生成部27は、ゴースト情報を基に、複数の話声においてタグを共用しながら、ゴーストごとにマルチタスクで上記のような複数話声から成る会話を生成する。また、会話生成部27は、映像ファイルだけでなく音声ファイルに付随しているタグやテキスト情報からも、複数の話者の話声からなる会話をテキストベースで作成する。
【0065】
そして、会話生成部27は、テキストベースで作成された会話を基に、ゴースト毎に会話ファイルを生成する(S24)。すなわち、複数の話者の話声からなる会話がゴースト情報の示す各ゴーストの性格に合わせて各クライアント23に割り振られ、割り振られた会話を内容とする会話ファイルが、ゴースト情報の示す各ゴーストの性格に合わせた話し方で生成される。
【0066】
その後、ステップS25で、遅延データ生成部28が、各クライアントマシン23に対して、内蔵時計の時刻を示す内蔵時計情報を送信するように指示をする。ステップS26で、指示に応えた各クライアントマシン23から内蔵時計情報が送信されて、遅延データ生成部28が、検索部25を介して内蔵時計情報を受信する。
【0067】
遅延データ生成部28は、会話ファイルの内容とする一連の会話において、この一連の会話が成り立つように、各クライアントマシン23の会話ファイルの再生時間に応じて各クライアントマシン23が会話ファイル及び映像ファイルの再生を開始する時刻を決定し、再生開始時刻を設定した再生時刻タイムテーブルを作成する(S27)。また、各クライアントマシン23のゴーストは、それぞれ話すスピードが異なるが、遅延データ生成部28は、ゴースト情報の示すこの各クライアントマシン23のゴースト毎の話すスピードの差異を考慮して、各クライアントマシン23の会話が重なったり、会話が途切れたりしないように、再生時刻タイムテーブルを作成する。
【0068】
再生時刻タイムテーブルでは、内蔵時計情報の示す各クライアントマシンの内蔵時計の時刻を基準としての再生開始時刻が決定される。すなわち、会話ファイル及び映像ファイルの再生時刻が、その会話ファイルを再生するクライアントマシン23の内蔵時計に合わせて決定される。通常、各クライアントマシン23の内臓時計は、インターネットを通じて標準時間に自動的に合わされているが、各クライアントマシン23の内臓時計での時刻がサーバ22の内蔵時計での時刻とずれている可能性があるからである。最後に、データ合成部29が、映像ファイルや会話ファイルに再生時刻タイムテーブルに記載された再生開始時刻を付与する(S28)。ここで、映像ファイルや会話ファイルのヘッダの部分にクライアントマシン23(ファイルの送信先のクライアントマシン23)のIP(Internet Protocol)アドレス、クライアントマシン名、サーバ22のIP(Internet Protocol)アドレス、会話ファイルに付与された管理番号、音量や音声の質などのゴースト音声情報、ファイルの再生開始時刻(再生開始時刻を示すタイミング情報)、ファイルの再生時間などが記載されていてもよい。
【0069】
これらの、再生開始時刻が付与された映像ファイルや音声ファイルは、送信部30によって対応するクライアントマシン23のIP(Internet Protocol)アドレスに送信される(S29)。具体的には、これらの情報(映像ファイルや音声ファイル)は、LAN24を通じて、設定されたIP(Internet Protocol)アドレスを有するクライアントマシン23に伝送される。アドレスは、IP(Internet Protocol)アドレスを用いたがこれに限定されず、LAN24が外部と直接接続されていない場合は、特定のアドレスでよい。
【0070】
各クライアントマシン23では、サーバ22から各クライアントマシン23に対応する一連の会話ファイル及び映像ファイルが全て一度に送られてくる。クライアントマシン23は、会話ファイル及び映像ファイルを受信部32で受信し、蓄積部320に蓄積する(S30)。蓄積部320は、蓄積した会話ファイル及び映像ファイルに付与された所定の再生開始時刻になったかどうかを判断し(S31)、所定の再生開始時刻になったと判断されない場合には(S31;NO)、繰り返しステップS31が実行される。
【0071】
所定の再生開始時刻になったと判断される場合には(S31;YES)、蓄積部320は、映像ファイルを映像表示部35に伝送し、会話ファイルを音声再生部33に伝送し、音声再生部33は、伝送された会話ファイルを含む音声ファイルや音響ファイルが再生され、映像表示部35では、映像ファイルが再生される(S32)。音声や音情報はスピーカなどの情報伝達部34を通じてユーザに提供される。また、映像ファイルは映像表示部35を通じてユーザに提供される。
【0072】
ユーザは、各クライアントマシン23から提供される情報(会話や映像等の情報)に常に注意を向けている必要はない。従来の音声提供システムがユーザに情報を正確に伝達することを目的としていたのに対して、本音声提供システムの特徴は、ユーザが情報を聞いていることを前提としていないことにある。従来のシステムでは、ユーザは常にクライアントマシン23からの情報を注意深く聞いておく必要があり、特にその内容に価値が乏しい場合には失望させられるという問題があった。また、ユーザは、クライアントマシン23から提供された情報に応答する必要があったので、うっとうしく感じることもあった。
【0073】
本音声提供システムでは、クライアントマシン23から提供される情報に、ユーザが積極的に返事などの応答をする必要はない。クライアントマシン23もユーザに応答を要求してこない。単に、クライアントマシン23同士が、ユーザが関心あると思われる内容に関して会話を行っているというもので、ユーザにとって本当に関心があれば自然と注意を向けることに着目したシステムである。
【0074】
特に、クライアントマシン23同士の会話に現れる感嘆表現から、ユーザは情報の重要度をはかることができる。もし、クライアントマシン23から提供される情報が極めて重要な情報の場合、テキストベースで会話が生成されるときに、映像ファイルに重要というタグが付与されていたり、テキストファイルに重要や緊急などの内容が含まれているので、サーバ22は、会話データを作成するときに、会話ファイルを再生する頻度を増やしたり、感嘆符をいれたり、音声の調子を変えたりして、ユーザの注意を喚起するような会話ファイルを生成する。すなわち、ユーザの返答に情報を受け取ったという確認を行わないことが本音声提供システムの特徴となっている。
【0075】
本音声提供システムでは、ユーザに提供した情報に対する応答は求めないが、提供した情報に対するユーザの反応はモニターしている。情報収集部25は、ユーザの音声を検知し、ユーザの音声を検知したかどうかを判断する(S33)。ユーザの音声を検知したと判断される場合には(S33;YES)、情報収集部36は、会話ファイル又は映像ファイルの再生期間中及び再生期間後の所定期間に、検知したユーザの音声などを収集する(S34)。ユーザの音声を検知したと判断されない場合には(S33;NO)、ステップS35が実行される。ステップS35では、全ての会話ファイル及び映像ファイルが再生され終えたかどうかを判断し、全ての会話ファイル及び映像ファイルが再生され終えたと判断されない場合には(S35;NO)、ステップS31に戻り、再生されていない音声ファイルや会話ファイルの再生開始時刻となったかが判断される。
【0076】
全ての会話ファイル及び映像ファイルが再生され終えたと判断される場合には(S35;YES)、送信部360が、収集した音声のうち特徴的な音声を音声ファイルにして、図2の矢印A4に示すように、ユーザ音声情報としてサーバ22に送信する(S36)。例えば、特徴的な音声とは、ユーザの声の大きさ等から決定される。なお、音声の収集が全くなされていない場合には、ステップSS26が実行されず、情報提供処理が終了する。
【0077】
このユーザ音声情報としての音声ファイルには、サーバ22のIP(Internet Protocol)アドレス、クライアントマシン名(ユーザ音声情報を送信するクライアントマシン23名)、クライアントマシン23(ユーザ音声情報を送信するクライアントマシン23)のIP(Internet Protocol)アドレス、会話ファイルに付与された管理番号、ユーザの音声を示す音声ファイルよりなり、どの会話ファイルが再生されているときにユーザがどのような応答をしたかを示す情報が付与されている。
【0078】
嗜好分析部38は、このユーザ音声情報としての会話ファイルを受信し(S37)、各クライアントマシン23からのこれらのユーザ音声情報としての会話ファイルから、ユーザに提供した情報へのユーザの関心の度合いを判断する(S38)。嗜好分析部38は、判断したユーザの関心度合いに基づいて、検索部25の検索条件を変化させる。具体的には、嗜好分析部38は、ユーザの応答が否定的であると判断した場合には、この応答がなされたとき再生されていた情報と同種類の提供情報の検索頻度を下げるように検索部25にフィードバックを行う。例えば、検索部25が、キーワード検索をおこなっている場合には、嗜好分析部38が、否定的な応答がなされたとき再生されていた情報と同種類の提供情報を検索しないように検索検索時のキーワードの組替えや変更を行う。嗜好分析部38が、ユーザの応答が肯定的であると判断した場合には、この応答がなされたとき再生されていた情報と同種類の提供情報の検索頻度を上げるように検索部25にフィードバックを行う。例えば、検索部25が、キーワード検索をおこなっている場合には、嗜好分析部38が、肯定的な応答がなされたとき再生されていた情報と同種類の提供情報を検索するようにキーワードの変更を行う。その後、情報提供処理が終了する。
【0079】
例えば、否定的な言葉は、「いらん」とか「やめて」とか「るせー」など、3音節あるいはそれ以下の音節数を持っている。したがって、3音節あるいはそれ以下の音節数の応答を検出した場合には、嗜好分析部38は、ユーザの関心は低いとして、この応答がなされたとき再生されていた情報と同種類の提供情報の検索頻度を下げるように検索部25にフィードバックを行う。一方、ユーザの応答が、「それから」「どうしたの」など、4音節以上の音節数を持っている場合には、嗜好分析部38は、肯定的な反応として、この応答がなされたとき再生されていた情報と同種類の提供情報の検索頻度を上げるように検索部25にフィードバックを行う。
【0080】
また、音声の周波数においても、否定的反応の場合にはユーザの音声の周波数は低くなる。一般的に100Hz以下の場合には、嗜好分析部38は、検出した応答を、否定的な応答であるとし、100Hz以上の場合には肯定的な応答であるとする。これらの音節数を用いて判定方法と音声の周波数を用いた判定方法との組み合わせにより、ユーザの応答が肯定的であるか否定的であるかの判定の精度を上げることができる。
【0081】
また、ユーザにも、判定の基準を周知することで、ユーザが意識的にクライアントマシン23に積極的にユーザの関心の度合いを伝えることが可能となる。ここでは、ユーザが、「うー」とか「あー」とか、低い声を出すことで、ユーザの否定的感情をクライアントマシン23に伝えることができるので、ユーザは、クライアントマシン23が応答を理解しているかということに気を使う必要がなくなるというメリットがある。また、サーバ22は、ユーザの応答に対して会話の内容にまで踏み込む必要はなく、処理アルゴリズムが簡単でかつ高速に処理することが可能となる。
【0082】
図4に戻って、ステップS5では、嗜好分析部38が、ステップS38で判定した、ユーザに提供した情報へのユーザの関心を基に、ユーザの嗜好を示す嗜好情報を作成し、矢印A6で示すように、情報提供センター21へ送信する(S5)。
【0083】
例えば、嗜好分析部38は、再生時刻タイムテーブルを参照して、ユーザの応答が検知された時刻に再生されている会話ファイルを検知し、この会話ファイルの内容を、この会話ファイルと対応するテキストベースの会話で用いられている用語を判定することで判断する。そして、嗜好分析部38は、会話ファイルの内容とユーザの応答とを関連付けて、否定的な応答が多かった会話ファイルの内容や、肯定的な反応の多かった会話ファイルの内容を示す嗜好情報を作成する。
【0084】
情報提供センター21では、要求部51が、嗜好情報を受信し(S6)、受信した嗜好情報に基づいて、要求部51の保持する選別情報を変更する(S7)。この選別情報とは、情報提供センター21の保持する情報であり、各ユーザが所望の提供情報の種類を示す。この選別情報は、ユーザの嗜好アンケートや、ユーザ設定(例えば、ユーザの年齢、性別)等を基に生成されている。次に、要求部51は、変更された選別情報に基づいて、ユーザへの提供情報の提供を要求する提供情報要求を情報提供者37に対して行う(S8)。
【0085】
この提供情報要求は、選別情報の示す種類の提供情報をユーザに提供することの要求である。その後、情報提供者37ではステップS2に戻り、情報提供者37は、提供情報要求を受けて提供情報をサーバ22へ送信する。ここで、情報提供者37が送信した提供情報は、図2の矢印A1で示すように、一度情報提供センター21に送信され、矢印A2で示すように情報提供センター21が提供情報をサーバ22へ伝送する。なお、矢印A5で示すように、情報提供者37が情報提供センター21を介さずにサーバ22へ提供情報を送信してもよい。ここで、送信される提供情報は、情報提供センター21で管理された、変更された選別情報の示す種類の提供情報である。
【0086】
そして、ステップS8の実行後、情報提供センター21では、ステップS9が実行され、請求部52が、情報提供料を課金し、情報提供者37に情報提供料の支払いの指示を行う。この情報提供料は、情報提供センター21が情報提供要求を行い、情報提供者37が提供情報を送信する機会を得られたことに対する対価である。情報提供者37は、情報提供料支払い要求を受け、提供情報要求に応じた提供情報の送信が実行された後に、情報提供料を送金する(S10)。情報提供センター21は、送金された情報提供料の集金を確認する(S11)。その後、情報制御処理は終了する。
【0087】
ここで、本音声提供システムは、家庭用電化製品どうしの「独立した対話」ではなく、ユーザに対する情報提供を主眼としており、各家庭用電化製品(各クライアントマシン)に対してスケジュールされたとおりに会話風に「情報提供」するシステムである。そして、本音声提供システムは、会話ファイルの作成及び会話ファイルの再生開始時刻の決定を全てサーバ22で行っており、クライアントマシン23はサーバ23より配信された会話ファイルを再生するのみであるため、各クライアントマシン23の会話ファイルの再生タイミングを調整する処理が、各クライアントマシン23で会話ファイルの作成、会話ファイルの再生開始時刻の決定を行うより簡便になるという効果を奏する。
【0088】
すなわち、コンピュータのどこに個性や人格が宿るかと考えると、ハードというよりもソフトであると考えられる。これは、同じ仕様のハードやソフトで構成されていれば「2001年宇宙の旅」に登場した「HAL」のようにハードの揺らぎがそれぞれの機器の個性を形成するのかもしれないが、本発明の音声提供システムのように、意識的に各機器(各クライアントマシン23)に異なったゴーストを設定する等して違いを持たる場合には、各機器(各クライアントマシン23)に個性を出現させる由来はソフトのアルゴリズムや設定パラメータとなると考えられるためである。
【0089】
そうすると、1個のMPU(Micro Processor Unit)でマルチタスクにするのも、複数のMPU(Micro Processor Unit)をネットワークで繋いで並列処理するのも会話という遅い処理においては、違いが出てこないと考えられる。ここで示したマルチタスクは、1個のMPU(Micro Processor Unit)で異なるアルゴリズムのソフトをマルチタスクで動作することも含んでいる。そうであれば、各クライアントマシン23の負担が小さくなるように、サーバ22でwavファイルまで作っておいて、各クライアントマシン23は送られてきたwavファイルを指定された時間(再生開始時刻)に再生すればよいことになる。
【0090】
もし、各クライアントマシン23がネットワークで繋がっておらず、各クライアントマシン23が発する音声のみから会話内容を個々のクライアントマシン23が独自に判断するとすれば極めて複雑な処理が必要となる。しかし、本実施の形態では、サーバ22が、再生時刻タイムテーブルと会話ファイルとを作成し、クライアントマシン23は、再生時刻タイムテーブルの示す再生開始時刻に、受信した会話ファイルを再生すればよいため、比較的複雑な処理を行わなくても、クライアントマシン23間の会話ファイルの再生タイミングを調整することができる。また、本発明の音声提供システムは、各機器(クライアントマシン23及びサーバ22)がネットワークで繋がっているので、会話の主旨や背景が全てのクライアントマシン23で共有できているということになる。
【0091】
また、本音声提供システムでは、情報提供センター21がユーザへ提供する情報量に基づき情報提供者37に課金することが特徴となっている。従って、本音声提供システムでは、本音声提供システムの稼動資金を、情報提供者37より得ることができるという効果を奏する。
【0092】
なお、本実施の形態では、1台のサーバ22で会話ファイルを作成して、各クライアントマシン23に会話ファイルを配信していたが、コスト的には不利にはなるものの、サーバ22を複数設け、複数のサーバ22で会話ファイルを作成しても良い。なお、会話(テキストベースで作成された会話)を基に各クライアントマシンが会話ファイルを作成しても良いが、その場合には、サーバ22が会話ファイルを作成するよりも、クライアントマシン23における会話ファイルの再生タイミングの調整をするための処理が複雑になる。その場合は、各クライアントマシン23間の会話を円滑に行うために、サーバ22が会話に要する遅延データの再生時刻タイムテーブルを作成し、各クライアントマシン23に配信することとなる。従って、サーバ22とクライアントマシン23とが会話ファイルを構成するための会話を共有していることが特徴となっている。
【0093】
なお、各クライアントマシン23が、サーバ22によってAI(Artificial Intelligence)調教され、情報収集部36が収集したユーザの音声を、サーバ22の嗜好分析部38が分析して、ユーザの意思を把握し、各クライアントマシン23に各クライアントマシン23の持つ機能を発揮する指示を行うことも可能である。この場合に、各クライアントマシン23とユーザとが交わしている会話の内容の一例として次のようなものになった。背景も含めて説明する。
【0094】
私(ユーザu1)は、「スーパーで特売があるのは知っているけれど、今日は疲れているから行かないの。」と、生意気な玲子(クライアントマシンcl1:冷蔵庫)を叱り飛ばした。玲子は、料理の材料の購入リストもインプットして、惣菜屋に送信してくれるので、料理の材料は惣菜屋から買っている。
【0095】
サーバ22からネットワークを介してAI(Artificial Intelligence)調教されるようになって、各クライアントマシン23同士のおしゃべりがかしましい。気立ての良い陽子(クライアントマシンcl2:電子レンジ)は、夫婦喧嘩の仲裁もしてくれる。私(ユーザu1)は、「家族と話しているより、各クライアントマシン23と話しているほうが、気が休まるよ」とつぶやく。
【0096】
仙太(クライアントマシンcl5:洗濯機のゴースト)と玲子とはよくけんかする。写楽(サーバ22)曰く、「全部の各クライアントマシン23の会話をサーバ22の1台で制御しているといっても、虫が合わないクライアントマシン23同士もある」そうだ。
【0097】
「健太(ユーザu2:ユーザu1の息子)から晩御飯のリクエストをされたよ」と写楽がささやいた。健太は、「それでいいよ」と、2階にいても携帯端末を使っていってくる。健太は、携帯端末を通してセキュリティ管理しているそうだ。私も銀行関係には、携帯端末を通している。
【0098】
この子達(各クライアントマシン23:家電機器)を無視して、私が、昼寝をしたり、自己流レシピを考えていると、「このさきどうしよう」とこの子達だけの相談がはじまる。思考過程が音声として出力される音声モードにしているので、各クライアントマシンの困った声が聞こえてくる。私は、「時には協力してあげようか」って思うけど、「機械に指示されるのは面白くない」と思う。
【0099】
私が留守にすると、鱒雄(ユーザu3:ユーザ1uの主人)と健太(ユーザu2)との携帯端末同士(クライアントマシンcl6、クライアントマシンcl7)が相談してメニューを決めて調理しているようだ。レシピ通りだと火加減も自動だし、陽子が作業の時間管理をしてくれるから、彼ら(各クライアントマシン23)でも、4品くらいなら同時に仕上げることができる。私は、「鱒雄さんと陽子とが一緒に料理するのは、私の留守のときだけにしてほしいな〜。鱒雄さんと陽子とが一緒に楽しそうに料理していると、腹が立ってしまう。」と思う。
【0100】
私は、料理をしながらエクササイズを行う。実写でゴーストの姿が表示される実写モードの草薙先生(クライアントマシンcl3:TVモニタ)は、「今日の献立は300kcalなので、がんばってカロリーを消費してね。いっしょに、がんばろう」って励ましてくれる。草薙先生は、汗びっしょりで、写楽のもっているヒューマンウエアとは思えないほど色っぽい。私は、「とんかつを揚げるタイミングで、一休みしたいな」と思う。私は、「陽子ぉ、つぎのレシピはまだ決まらないのぉ」と叫ぶ。といった、具合である。
【0101】
各クライアントマシン23には機器名だけでなく人名などの通称コードを付与しておくことで、人と人とが話している会話のように滑らかになる。独居老人などの家庭にこのような音声提供システムを導入することにより、あたかも家族に囲まれているような暖かい雰囲気を作り出すことが可能となるし、ユーザである独居老人の応答の頻度をモニターしておくことで、独居老人の安否の確認も可能となる。ここで会話に出てくる、「AI調教」とは、サーバ22が、ネットワークを通じて各クライアントマシン23本体やゴーストを自動的にバージョンアップすることと、各ユーザに対応する反応がより肯定的になるようにゴーストのパラメータを最適化することを意味している。
【0102】
なお、サーバ22にユーザの会話の内容を理解するようにすることもできる。すなわち、嗜好分析部38が、ユーザ音声情報を分析してユーザの会話の内容を理解し、この会話の内容を理解した場合には、各クライアントマシン23に現在再生されている会話ファイルの再生を止めさせる。そして、新たにステップS24の会話ファイルの作成が、ユーザの会話の内容を踏まえて行われ、各クライアントマシン23に配信される。そして、各クライアントマシン23は、配信された会話ファイルを再生するのである。この場合の、各クライアントマシンとユーザが交わしている会話の内容の一例として、次のようなものがある。
【0103】
クライアントマシンcl3(TVモニタ)は、「天気予報が、今晩寒いといっていたよ。晩御飯には、オデンなんかいいのではないか。」という。
【0104】
クライアントマシンcl1(冷蔵庫)「ちくわと大根とが野菜室にあるよ。」という。
【0105】
クライアントマシンcl3(TVモニタ)は、「冷蔵庫が、そんなに扉バタバタ開けたら寒いよ。」という。
【0106】
クライアントマシンcl1(冷蔵庫)は、「ごめん。こんにゃくも少々冷蔵庫の中に残っているよ。」という。
【0107】
ユーザu1は、「晩御飯のときに、熱燗を飲むことができたらよいのに。」という。
【0108】
クライアントマシンcl2(電子レンジ)は、「熱燗飲んだら、だめ。明日、会社の健康診断があるよ。」という。
【0109】
ユーザ1は、「ええー、忘れていた。とてもショックだ。」という。
【0110】
これは、サーバの嗜好分析部38で、ユーザの会話の内容が解析できた場合に、それを基に会話生成部27で、ユーザの発言をうけて会話を生成しなおした例である。この場合の、各会話ファイルの再生開始時刻は、本発明の各クライアントマシン23間の会話からユーザに必要な情報を得るという趣旨から、特にユーザの会話のタイミングを考慮して決定される必要はないが、ユーザの会話のタイミングを考慮して得られてもよい。
【0111】
(実施の形態2)
本発明の音声提供システムの第2の実施の形態にかかる音声提供システムを、図6〜図8を用いて説明する。本実施の形態にかかる音声提供システムは、第1の実施の形態に対してユーザ音声情報および情報に対する料金の流れが異なる。本実施の形態にかかる音声提供システムは、ユーザの嗜好情報を処理して、ユーザの嗜好のマクロ嗜好分析を行うだけでなく、個別のユーザの個々の商品に対する嗜好に対して、個々の商品の関連性や商品による嗜好の変化などテクニカル嗜好分析をおこなって、その結果である嗜好統計データ(嗜好データ)を情報提供センター21に送出する。
【0112】
この情報提供センター21から各情報提供者37に送られる嗜好分析情報の対価として、情報提供センター21が各情報提供者37に課金することになっている。すなわち、本音声提供システムでは、情報提供者37は、情報提供センター21がユーザへ提供する情報量に対する対価だけでなく、情報提供センター21によって各情報提供者37に提供された嗜好統計データの価値に基づき、資金を情報提供センター21に提供することが特徴となっている。
【0113】
以下、本発明の第2の実施の形態のシステムの構成について説明する。
【0114】
図6は、本発明の第2の実施の形態にかかる音声提供システムを示すシステム構成図である。なお、ここでは、ユーザのうちユーザu3を、複数の情報提供者37(情報提供者j1〜j3)のうち情報提供者j1を代表して説明し、情報と資金の流れをA1〜A8、C1、2に示す。
【0115】
本実施の形態では、音声提供システムは、ユーザの嗜好情報を基に情報提供センター21で情報提供者37の情報を収集する。本実施の形態の音声提供システムは、第1の実施の形態と同様にLAN(Local Area Network)24とサーバ22と複数のクライアントマシン23とで構成されているとともに、情報提供センター21および複数の情報提供者37ともアクセス可能にネットワークを介して接続されている。LAN24には、サーバ22と複数のクライアントマシン23とが接続され、音声提供システムは、インターネット等の外部通信網を介して情報提供センター21と接続している。
【0116】
情報提供センター21は、矢印A1に示すように提供する会話情報や映像情報等の提供情報が、情報提供者37からのコマーシャルなどを含むことで、矢印C1に示すように情報提供者37からシステム運営資金を得る。また、情報提供センター21は、矢印A8で示すようにユーザの嗜好情報を加工して作成した嗜好統計データを情報提供者37に提供することで、矢印C2で示すようにシステム運営資金を得ている。情報提供センター21は、矢印A7に示すように送信されるユーザの嗜好情報を基に、選別した提供情報を矢印A2に示すようにユーザに提供する。
【0117】
なお、矢印A2に示すようにサーバ22へ提供された提供情報は、第1の実施の形態と同様に、サーバ22に蓄えられた後、会話ファイルに基づいて会話を行うクライアントマシン23に、矢印A3に示すように伝送される。クライアントマシン23は、ユーザの応答などの嗜好情報を矢印A4に示すようにサーバ22に伝送する。そして、矢印A4に示すようにユーザに送信された嗜好情報を、サーバ22が情報提供センター21に提供しても良いと判断すれば、矢印A7に示すように、サーバ22から情報提供センター21に嗜好情報が送られる。
【0118】
情報提供センター21は、各ユーザから収集した嗜好情報を統計的に処理して嗜好統計データを作成し、ユーザ名を匿名にして、矢印A8に示すように各情報提供者37に有料で嗜好統計データを提供する。その結果として、情報提供センター21は、提供した嗜好統計データのデータ提供料金を矢印C2で示すように各情報提供者37から徴収することになる。なお、情報提供センター21は、プロバイダなどが保有する一機能としてよい。
【0119】
情報提供者37は、メーカや小売店などであり、提供情報を的確にユーザに提供するために、情報提供センター21を通じて提供情報を必要とするユーザに特化して配信している。また、情報提供提供者37は、提供情報を配信するともに、矢印C1で示すように、取り扱い情報量(ユーザに提供した情報量)に応じた情報配信費用を情報提供センター21に支払っている。
【0120】
図7は、図6に示すサーバと情報提供センター21との主要機能を示すブロック図である。ここで、クライアントマシン23に関しては、各クライアントマシン23の情報収集部36がユーザ音声情報を基に、ユーザの嗜好の分析や解釈を行ってユーザの嗜好を示す嗜好情報を作成する以外は、図3に示す第1の実施の形態とほぼ同様であるため説明を省略する。
【0121】
サーバ22は、第1の実施の形態とほぼ同様の機能を有するが、嗜好分析部38がなく、嗜好判定部39があることが異なっている。この嗜好判定部39は、ユーザ反応情報受信手段、判定手段及びユーザ反応情報送信手段として機能し、嗜好判定部39は、嗜好情報を各クライアントマシン23から受信し、嗜好情報を外部に送出して良いか、すなわちユーザが嗜好情報を外部に送出することを許可するかどうかを判定したのち、嗜好情報を外部に送出して良いと判定した場合には、嗜好情報を情報提供センター21に送出している。
【0122】
情報提供センター21は、請求部52に加えて、嗜好データ生成手段、送信手段及び料金請求手段として機能する嗜好情報処理部40、嗜好情報管理部41、各ユーザ毎に管理された嗜好情報を記憶する嗜好情報記憶部42、要求手段として機能し、嗜好情報に基づいて、ユーザの嗜好に応じた情報提供者情報を検索する検索部44、検索の結果、情報提供者37からの情報やURL(Uniform Resource Locator)をユーザのサーバ22に送出するアドレス送信部43よりなる。なお、嗜好統計データは、例えばユーザに対するアンケート調査や、サーバ22から送信された嗜好情報を基に判定された、商品等に対するユーザの嗜好を示す。
【0123】
以下、このシステムの動作について図8を用いて説明する。図8は、図6に示す音声提供システムの実行する情報制御処理の一例を示すフローチャートである。図8では、図4に示す本発明の第1の実施の形態にかかる音声提供システムの実行する情報制御処理と同様の処理を実行するステップについては、同じ符号を付す。
【0124】
まず、ステップS41で、情報管理センター21は、情報提供者37に対して、選別情報に基づいて、提供情報要求を行う。この選別情報及び提供情報の定義は、第1の実施の形態の音声提供システムと同様である。この提供情報要求を受けた情報提供者37は、情報提供センター21に提供情報を送信し(S2)、情報提供センター21が、情報提供センター21からの提供情報を受信し(S42)、この提供情報をサーバ22へ送信する(S43)。ここで、情報管理センター21は、情報提供者37に対して、選別情報に基づいて、提供情報要求を行っているため、選別情報の示す種類の提供情報が選別されてサーバ22に提供される。
【0125】
また、ステップS44では、各クライアントマシン23で、情報収集部36が、ユーザ音声情報を基に嗜好情報を作成する。この嗜好情報及びユーザ音声情報の定義は、第1の実施の形態における定義と同様である。そして、各クライアントマシンから送られてくる嗜好情報を嗜好情報判定部39に蓄積する。
【0126】
嗜好情報判定部39は、嗜好情報が外部に送出して良い情報かどうかを判定する(S45)。ここで、外部とは、音声提供システムの外、すなわち、情報提供センター21や情報提供者37等である。嗜好情報判定部39では、外部に送出して良い嗜好情報かどうかは、情報提供者37単位で管理されており、判断はユーザがあらかじめ行っておく。例えば、ユーザは、情報提供者毎に、外部に送出してもよい情報のキーワード又は外部に送出してはいけない情報のキーワードを嗜好情報判定部39に入力しておく。そして、嗜好情報判定部39は、外部に送出してもよい情報のキーワードが含まれている嗜好情報を外部に送出してもよい情報であると判断し、又は外部に送出してはいけない情報のキーワードが含まれていない嗜好情報を外部に送出してもよい情報であると判断する。
【0127】
そして、嗜好情報が外部に送出しても良い情報であると判定された場合には(S45;YES)、嗜好判定部39が、外部に送出しても良い情報であると判定された嗜好情報のみを情報提供センター21に送信する(S46)。一方、嗜好情報が外部に送出しても良い情報であると判定されない場合には(S45;NO)、情報制御処理は終了する。
【0128】
次に、情報管理センター21における嗜好情報処理スキームに関して説明する。ステップS47で、嗜好情報管理部41が、各ユーザのサーバ22から送られてきた嗜好情報を受信、ユーザごとに嗜好情報を分類して仕分けし、嗜好情報記憶部42に記憶させておく。次に、情報管理センター21は、嗜好情報に基づいて選別情報を変更する(S48)。例えば、選別情報は、検索キーワードであり、嗜好情報管理部41は、嗜好情報に基づいて検索キーワードをきめる。検索部44は、変更後の検索キーワードで、各ユーザの嗜好にあった新着情報(提供情報)を検索して、この検索と合致した提供情報のサーバ22への提供を要求する提供情報要求を情報提供者37に対して行う(S49)。
【0129】
ステップS49の実行後、アドレス送信部43が、検索されて提供情報の提供を行う情報提供者37の情報提供者情報のURLを各ユーザのサーバ22に送出する。この情報提供者情報は、サーバ22と接続されている情報提供者37の紹介を示す。なお、URLを受信した嗜好判定部39は、受信したURLから情報提供者情報を取得し、この情報提供者情報の示す情報提供者37からの提供情報の受信がはじめてである場合には、この新たな情報提供者37を登録し、ユーザの送信可能な嗜好情報の条件が入力される。また、大きな情報の蓄積を省くため、通常、情報管理センター21は、情報提供者37のサイト内のURLのみを管理しており、情報提供者37からの情報をなるべく蓄積しないようにしている。また、サーバ22は、情報提供者37内のURLを記録することによって、このサイトに接続して、情報提供者21に管理されず情報提供者37から提供情報を得ることも可能である。
【0130】
また、ステップS49の実行後、嗜好情報処理部40が、嗜好情報管理部41の受け付けたユーザの嗜好情報を基に、個々の商品のコマーシャル情報に対するユーザの反応を統計的に処理して嗜好統計データを作成し、嗜好統計データの提供を望む情報提供希望者に対して提供する(S50)。情報提供者37は、嗜好統計データを受信し(S51)、嗜好情報処理部40は、嗜好統計データを送信した対価としての料金であるデータ提供料を課金して、情報提供者37に請求する(S52)。請求を受けた情報提供者37は、データ提供料を情報提供センター21に送金する(S53)。情報提供センター21は、データ提供料を集金し(S54)、情報制御処理は終了する。
【0131】
本音声提供システムの特徴は、情報提供者37からは個々のユーザが特定されないことである。また、情報処理センター21では、情報提供者37からの依頼に基づき嗜好統計データを作成し、情報提供者37に送出している。特に、情報処理センター21では、ユーザごとに嗜好情報を所有しているので、例えば、「外車の好きな人」と「高級ホテルの好きな人」との相関など容易にとることができる。その結果、「外車の好きな人」は、「高級ホテルの好きな人」が多いことが統計的に把握できた場合に、情報提供センター21は、高級ホテルである情報提供者37からの「外車の好きな」ユーザへ重点的に提供情報を提供するように管理することが可能となる。また、ビールでは、サッポロビール株式会社から「極生」(サッポロビール株式会社の登録商標)が出荷されたことにより、「本生」(アサヒビール株式会社の登録商標)のユーザから何割が、「ブロイ」(サッポロビール株式会社の発泡酒の登録商標)のユーザから何割が、「極生」に嗜好を変えたかということも、嗜好情報を統計的にデータ処理することにより明らかにすることができる。
【0132】
上記のように、情報提供センター21は、嗜好情報を分析して得た情報を有料で情報提供者37に提供することにより、本音声提供システムの稼動資金を得ている。これによって、本実施の形態にかかる音声提供システムは、本発明の第1の実施の形態にかかる音声提供システムの奏する効果に加えて、情報提供者37よりシステムの稼動資金を更に調達することが可能であり、また、情報提供者37の経済活動を促進させることが可能であるという効果を奏する。
【0133】
なお、特定のユーザの嗜好情報を継続的に取得して分析する定点観測を行って、情報提供センター21は、特定のユーザの嗜好統計データを情報提供者37に提供することができる。この場合、嗜好統計データには、情報管理センター21が保有しているユーザを特定できる情報は付与されず、抽象的なユーザ名「少女A」「少年B」などが付与されて、年齢変化に伴う嗜好情報の変化を情報提供者へ提供してもよい。
【0134】
また、嗜好統計データには、ユーザに提供された映像ファイルのどの瞬間が再生されているときに、ユーザが最大の興味を示したかという情報を含めることができる。例えば、中古ピアノ買上げの竹本ピアノ工房のCMがユーザに提供された時に、ユーザの赤ん坊の泣き声に相当する周波数(200Hz程度)の連続した音が消えており、これは、特定のCMの提供により赤ん坊が泣き止んでいるという情報として、情報提供者に提供することができる。
【0135】
ユーザは、提供された情報に対して、第1の実施の形態と同様な応答をすればよい。なお、ユーザは、特定の情報提供者37への嗜好情報の提供を許諾することにより、懸賞に応募しなくても嗜好情報提供の見かえりとして景品を受け取る構成としてもよい。
【0136】
なお、本実施の形態にかかる音声提供システムでも、第1の実施の形態と同様に、各クライアントマシン37は、検索部25の検索機能などを用いて、提供情報を直接(情報提供センター21を介さずに)情報提供者37から得る構成としてもよい。この場合には、サーバ22の検索部25では、常時ユーザの嗜好情報に適合する提供情報を検索する。
【0137】
なお、情報提供者37は、必ずしも複数接続されている必要はなく、1つの情報提供者37が接続されていればよい。
【0138】
(実施の形態3)
本発明の第3の実施の形態にかかる音声提供システムでは、クライアントマシン23がデータ合成部29を備えず、遅延データが映像ファイルや音声ファイルに付与されない。すなわち、会話を開始する時刻すなわち会話ファイルを再生する時刻に、送信部30が、会話を行うクライアントマシン23に会話ファイルを送付し、各クライアントマシン23は送付されたファイルを所定時間内に再生し始める。この点においてのみ、本発明の第1及び第2の実施の形態にかかる音声提供システムとは異なる。
【0139】
本音声提供システムは、第一および第二の実施の形態で示したシステム構成および情報と資金の流れと同様である。ただし、本実施の形態の音声提供システムは、会話ファイルや映像ファイルの送出のタイミングが異なっている。また、サーバ22は、データ合成部29を有さない。本発明の第1の実施の形態で示した図3及び図9を用いて、本音声提供システム説明を行う。図9は、本発明の第3の実施の形態にかかる音声提供システムの実行する情報提供処理の一例を示すフローチャートである。なお、図9では、図5に示す情報提供処理と同一の処理を実行するステップには同一の符号が付されている。
【0140】
ステップS61では、送信部30が、ステップS27で作成された再生時刻タイムテーブルを参照して、クライアントマシンcl1に対応する会話ファイル又は映像ファイルの再生開始時刻になったかどうかを判断する。クライアントマシンcl1に対応する会話ファイル又は映像ファイルの再生開始時刻になったと判断される場合には(S61;YES)、送信部30は、クライアントマシンcl1に会話ファイル又は映像ファイルを送信する(S62)。クライアントマシンcl1に対応する会話ファイル又は映像ファイルの再生開始時刻になったと判断されない場合には(S61;NO)、ステップS63が実行される。
【0141】
ステップS63では、送信部30が、ステップS27で作成された再生時刻タイムテーブルを参照して、クライアントマシンcl2に対応する会話ファイル又は映像ファイルの再生開始時刻になったかどうかを判断する。クライアントマシンcl2に対応する会話ファイル又は映像ファイルが再生開始時刻になったと判断されない場合には(S63;NO)、再度ステップS61が実行される。クライアントマシンcl2に対応する会話ファイル又は映像ファイルが再生開始時刻になったと判断される場合には(S63;YES)、送信部30は、クライアントマシンcl2に再生開始時刻になった会話ファイル又は映像ファイルを送信する(S64)。
【0142】
その後、受信部32は、サーバ22からクライアントマシンcl1に対応する全ての会話ファイル及び映像ファイルを送信したかどうかを判断する(S65)。全ての会話ファイル及び映像ファイルを送信したと判断されない場合には(S65;NO)、ステップS61が再度実行される。全ての会話ファイル及び映像ファイルを送信したと判断される場合には(S65;YES)、会話ファイル及び映像ファイルの送信処理は終了する。
【0143】
従って、クライアントcl1における再生開始時刻とクライアントcl2における再生開始時刻に、それぞれステップS62又はステップS64で送信された会話ファイル及び映像ファイルが、クライアントマシン23に受信され(S30)、受信された会話ファイル及び映像ファイルは、所定時間内に音声再生部33または映像表示部35に伝送されて再生される(S32)。
【0144】
上記構成によって、会話ファイル及び映像ファイルが再生開始時刻に順次クライアントマシン23へ送信され、再生されるため、再生開始時刻に準じた時刻に会話ファイルおよび映像ファイルが再生開始されることになり、本実施の形態にかかる音声提供システムによっても、本発明の第1及び第2の実施の形態にかかる音声提供システムの効果を奏する。更に、本実施の形態にかかる音声提供システムは、各クライアントマシン23の蓄積部320の記憶容量が、会話ファイル及び映像ファイルを幾つも格納可能なほど大きくなくても、各クライアントマシン23の会話ファイルの再生タイミングを調整することが可能である。
【0145】
すなわち、本発明の第1及び第2の実施の形態にかかる音声提供システムでは、データ合成部29によって、映像ファイル及び会話ファイルを含む音声ファイルを作成したのち、これらのファイルにヘッダをつけてデータ合成をおこない、送信部30から一連の会話のデータ全てを該当するクライアントマシン23にほぼ同時に送付し、各クライアントマシン23は、全ての映像ファイル及び会話ファイルを受け取った後に、ヘッダに示された再生開始時刻に各会話ファイルを再生する。
【0146】
しかし、本発明の第1及び第2の実施の形態にかかる音声提供システムは、再生開始時刻に、映像ファイルや、会話ファイルを含む音声ファイルを各クライアントマシン23へ伝送が完了している程に、サーバ22からクライアントマシン23へのデータを送信するスピードが速くない場合に適した方法である。すなわち、本実施の形態のように、サーバ22から送られてくる会話ファイル又は映像ファイルを順次再生する方法だと、サーバ22からクライアントマシン23へのデータを送信するスピードが速くない場合に次の様な問題が生じる可能性がある。すなわち、会話ファイルが再生されているときであって、大きな映像ファイルが送信されるとき、映像ファイルの伝送が間に合わなくて各クライアントマシン間の会話が途切れてしまうという可能性がある。ゆえに、一度、各クライアントマシン23の蓄積部320において全ての会話ファイル及び映像ファイルの転送完了が確認された後に、会話ファイル及び映像ファイルの再生を開始していた。
【0147】
しかしながら、各クライアントマシン23の蓄積部320の容量が、一度に送信される会話ファイルや映像ファイルを全て格納できるほどに大きくない場合もある。特に、近年、情報伝送技術が向上しているため、各クライアントマシン23における蓄積部320の容量を超える映像ファイルをクライアントマシン23に提供可能な音声提供システムを提供することも必要である。このため、本実施の形態の音声提供システムは、再生開始時刻に合わせて、各クライアントマシン23に対してサーバ22から映像ファイルを順次クライアントマシン23に送付し、これによって、蓄積部320の容量を超える映像ファイルを提供クライアントマシン23に提供可能にしているのである。
【0148】
なお、会話ファイルは、本発明の第1及び第2の実施の形態にかかる音声提供システムと同様に、各クライアントマシン23に同時に配布しておき、映像ファイルのみ、再生時刻にサーバから各クライアントマシンに送出し、すぐに再生を開始する方法も用いてもよい。この場合には、例えば、炊飯器などのクライアントマシンのように、扱うデータ量がわずかで、蓄積部の容量が極めて小さい場合には、蓄積部の容量が極めて小さいクライアントマシンのみ、会話ファイルも、再生時刻に順次クライアントマシンに送出してもよい。
【0149】
なお、本実施の形態では、ステップS61で、再生開始時刻であるかどうかが判断されているが、再生開始タイミングより所定期間だけ早い時刻であるかどうかが判断されてもよい。また、会話ファイル又は映像ファイルはすぐに伝送されるというのは、会話ファイル又は映像ファイルが、サーバ22に受信された時刻から所定期間経過して伝送されることを含み、各クライアントマシン23間での会話ファイルの会話が不自然にならないように設定された所定期間内に伝送されればよい。
【0150】
なお、本発明は、必ずしも、会話生成部27を有する必要もなく、会話ファイルを検索部25が受信し、会話ファイルをサーバ22で生成しなくてもよい。また、本発明は、必ずしも情報提供センター37が課金される必要はない。情報提供センター21に情報提供者37が複数接続され、複数の情報提供者37から提供情報を受信可能な構成であってもよく、情報提供センター21が複数接続され、複数の情報提供センター21からの提供情報が管理されていてもよい。また、本発明は、情報提供センター21の管理する提供情報を受信する必要もなく、検索部25の検索によって提供情報を入手する構成のみ有していてもよい。また、本発明の音声提供システムは、情報提供センター21を介さず直接、情報提供者37と接続されていてもよい。
【0151】
【産業上の利用可能性】
上記のように、本発明によれば、サーバが、各クライアントマシンの再生する話声音声情報(会話ファイル)全てを把握して、複数の会話ファイルの再生タイミングを決定するため、各クライアントマシンそれぞれで再生タイミングを決定して会話ファイルを再生するよりも、再生タイミングの調整の処理が複雑ではない。このため、比較的簡易な処理で、各クライアントマシン同士が会話するように各クライアントマシンの会話ファイルを再生することが可能となる。このことにより、話声音声情報が、各クライアントマシン同士のなめらかな会話に変換され、ユーザは、この会話の中から情報をユーザに間接的に享受することができる。
【0152】
特に、各クライアントマシン(家電機器など)にクライアントマシンの擬似人格であるゴーストを割り当てる場合には、再生タイミングの調整が複雑になるが、本発明では、サーバで再生タイミングを調整しているため、各ゴーストの話すスピードの差異を考慮して再生タイミングを調整することが可能となる。このことにより、話声音声情報が、個性の異なる各クライアントマシン同士のなめらかな会話に変換され、ユーザは、この会話の中から情報をユーザに間接的に享受することができる。
【0153】
また、サーバで各機器のゴーストに応じた再生タイミングが話声音声情報に付与され、各ゴーストに一連の話声音声情報が送信され、各クライアントマシンがこの再生タイミングに会話ファイルを再生することで、順次音声情報が送信されるよりも、クライアントマシンに出力される会話が途切れることを効果的に防止する。
【図面の簡単な説明】
【図1】従来の情報表示システムを示す構成ブロック図である。
【図2】本発明の第1の実施の形態における音声提供システムを示すシステム構成図である。
【図3】図2に示す音声提供システム及び情報提供センターの主要機能を示すブロック図である。
【図4】図2に示す音声提供システムが実行する情報制御処理の一例を示すフローチャートである。
【図5】図4に示す情報提供処理の一例を示すフローチャートである。
【図6】本発明の第2の実施の形態における音声提供システムを示すシステム構成図である。
【図7】図6に示す音声提供システムの主要機能を示すブロック図である。
【図8】図6に示す音声提供システムが実行する情報制御処理の一例を示すフローチャートである。
【図9】本発明の第3の実施の形態にかかる音声提供システムが実行する情報提供処理の一例を示すフローチャートである。

Claims (16)

  1. サーバに通信可能に接続された複数のクライアントマシンが、このサーバから配信された音声情報を再生してユーザに音声を提供する音声提供システムにおいて、
    前記サーバは、
    複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする複数の話声音声情報を格納する記憶手段と
    前記話声音声情報それぞれの再生タイミングを決定するタイミング決定手段と
    前記複数の話声音声情報からクライアントマシン毎に対応する前記話声音声情報を送信する送信手段とを有し
    前記クライアントマシンは、
    送信された前記話声音声情報を前記サーバの決定した再生タイミングで再生する音声再生手段を有し、
    前記タイミング決定手段は、決定されたタイミングを示すタイミング情報を作成し、
    前記送信手段は、前記話声音声情報と伴に、前記話声音声情報毎に対応する前記タイミング情報を送信する音声提供システム。
  2. サーバに通信可能に接続された複数のクライアントマシンが、このサーバから配信された音声情報を再生してユーザに音声を提供する音声提供システムにおいて、
    前記サーバは、
    複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする複数の話声音声情報を格納する記憶手段と、
    前記話声音声情報それぞれの再生タイミングを決定するタイミング決定手段と、
    前記複数の話声音声情報からクライアントマシン毎に対応する前記話声音声情報を送信する送信手段とを有し、
    前記クライアントマシンは、
    送信された前記話声音声情報を前記サーバの決定した再生タイミングで再生する音声再生手段を有し、
    前記タイミング決定手段は、前記再生タイミングに合わせて、前記送信手段に前記話声音声情報を送信させる音声提供システム。
  3. 複数のクライアントマシンが通信可能に接続され、このクライアントマシンに音声情報を送信し、送信した音声情報を再生させるサーバであって、
    複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする複数の話声音声情報を格納する記憶手段と、
    前記複数の話声音声情報の再生タイミングを決定するタイミング決定手段と、
    前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、対応する前記クライアントマシンに送信する送信手段とを有し、
    前記タイミング決定手段は、決定されたタイミングを示すタイミング情報を作成し、
    前記送信手段は、前記話声音声情報と伴に、前記話声音声情報毎に対応する前記タイミング情報を送信するサーバ。
  4. 複数のクライアントマシンが通信可能に接続され、このクライアントマシンに音声情報を送信し、送信した音声情報を再生させるサーバであって、
    複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする複数の話声音声情報を格納する記憶手段と、
    前記複数の話声音声情報の再生タイミングを決定するタイミング決定手段と、
    前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、 対応する前記クライアントマシンに送信する送信手段とを有し、
    前記タイミング決定手段は、前記再生タイミングに合わせて、前記送信手段に前記話声音声情報を送信させるサーバ。
  5. 前記記憶手段は、前記クライアントそれぞれの擬似人格に対応した内容の前記話声音声情報を複数格納し、
    前記送信手段は、前記話声音声情報の内容に対応した擬似人格を有する前記クライアントに、前記話声音声情報を送信することを特徴とする請求項3又は4に記載のサーバ。
  6. インターネットを通じて前記話声音声情報の会話内容の基になる提供情報を検索して収集する検索手段と、
    収集した前記提供情報を基に前記話声音声情報を作成して、前記記憶手段に格納させる音声情報作成手段とを更に有し、
    前記検索手段は、映像情報をこの映像情報に付された前記映像情報の内容を示すタグによって検索して収集し、
    前記音声情報作成手段は、前記タグを用いて前記話声音声情報を作成し、
    前記送信手段は、前記クライアントマシン毎に対応する前記話声音声情報と前記映像情報とを送信する請求項3又は4に記載のサーバ。
  7. 情報提供サーバによる情報の提供を管理する情報提供管理サーバと通信可能に接続され、前記情報提供管理サーバを介して、前記話声音声情報の会話内容の基になる提供情報を受信する受信手段と、
    前記話声音声再生情報の再生期間中及び再生期間後の所定期間に収集された、前記クライアントマシンを使用するユーザの音声を示すユーザ音声情報を前記クライアントマシンから受信するユーザ音声受信手段と、
    前記受信したユーザ音声情報を基にユーザの反応を分析する分析手段と、
    分析したユーザの反応を示すユーザ反応情報を前記情報提供管理サーバへ送信する情報送信手段とを更に有し、
    前記受信手段は、前記情報提供管理サーバによって前記ユーザ反応情報に基づいて選別された、前記提供情報を受信する請求項3又は4に記載のサーバ。
  8. インターネットを通じて前記話声音声情報の会話内容の基になる提供情報を検索して収集する検索手段と、
    収集した前記提供情報を基に前記話声音声情報を作成して、前記記憶手段に格納させる音声情報作成手段と、
    前記話声音声再生情報の再生期間中及び再生期間後の所定期間に収集された、前記クライアントマシンを使用するユーザの音声を示すユーザ音声情報を前記クライアントマシンから受信するユーザ音声受信手段と、
    前記受信したユーザ音声情報を基にユーザの反応を分析する分析手段とを更に有し、
    前記検索手段は、分析したユーザの反応が否定的な反応である場合に、当該反応がなされた音声と同種類の提供情報の検索頻度を下げる請求項3又は4に記載のサーバ。
  9. インターネットを通じて前記話声音声情報の会話内容の基になる提供情報を検索して収集する検索手段と、
    収集した前記提供情報を基に前記話声音声情報を作成して、前記記憶手段に格納させる音声情報作成手段と、
    前記話声音声再生情報の再生期間中及び再生期間後の所定期間に収集された、前記クライアントマシンを使用するユーザの音声を示すユーザ音声情報を前記クライアントマシンから受信するユーザ音声受信手段と、
    前記受信したユーザ音声情報を基にユーザの反応を分析する分析手段とを更に有し、
    前記検索手段は、分析したユーザの反応が肯定的な反応である場合に、当該反応がなされた音声と同種類の提供情報の検索頻度を上げる請求項3又は4に記載のサーバ。
  10. 情報提供サーバによる情報の提供を管理する情報提供管理サーバと通信可能に接続され、前記情報提供管理サーバを介して、前記話声音声情報の会話内容の基になる提供情報を受信する受信手段と、
    前記話声音声再生情報の再生期間中又は再生期間後の所定期間における、ユーザの反応を示すユーザ反応情報を前記複数のクライアントマシンから受信するユーザ反応情報受信手段と、
    前記受信したユーザ反応情報の前記情報提供管理サーバへの送信をユーザが許可するかどうかを判定する判定手段と、
    前記判定手段によって送信を許可すると判定された前記ユーザ反応情報のみを、前記情報提供管理サーバへ送信するユーザ反応情報送信手段とを更に有し、
    前記受信手段は、前記情報提供管理サーバによって前記ユーザ反応情報に基づいて選別された前記提供情報を受信する請求項3又は4に記載のサーバ。
  11. 他のクライアントマシンと共にサーバへ通信可能に接続され、このサーバから配信された音声情報を再生してユーザに音声を提供するクライアントマシンにおいて、
    複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を、前記サーバから受信する音声情報受信手段と、
    前記サーバの決定した再生タイミングで送信された話声音声情報を再生する音声再生手段とを有し、
    前記音声情報受信手段は、前記サーバによって決定された再生タイミングを示すタイミング情報を、前記話声音声情報と伴に受信するクライアントマシン。
  12. 他のクライアントマシンと共にサーバへ通信可能に接続され、このサーバから配信された音声情報を再生してユーザに音声を提供するクライアントマシンにおいて、
    複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を、前記サーバから受信する音声情報受信手段と、
    前記サーバの決定した再生タイミングで送信された話声音声情報を再生する音声再生手段とを有し、
    前記音声情報受信手段は、前記サーバによって決定された再生タイミングに合わせて送信される前記話声音声情報を受信するクライアントマシン。
  13. 複数のクライアントマシンが接続されるサーバが、このクライアントマシンに音声情報を配信し、配信した音声情報を再生させる音声再生方法であって、
    前記サーバが、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を複数格納する音声情報格納するステップと、
    前記サーバが、この話声音声情報それぞれの再生タイミングを決定するタイミング決定ステップと、
    前記サーバが、前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、対応する前記クライアントマシンに送信する音声情報送信ステップとを含み、
    前記タイミング決定ステップでは、決定されたタイミングを示すタイミング情報が作成され、
    前記音声情報送信ステップでは、前記話声音声情報と伴に、前記話声音声情報毎に対応する前記タイミング情報が送信される音声再生方法。
  14. 複数のクライアントマシンが接続されるサーバが、このクライアントマシンに音声情報を配信し、配信した音声情報を再生させる音声再生方法であって、
    前記サーバが、複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を複数格納する音声情報格納するステップと、
    前記サーバが、この話声音声情報それぞれの再生タイミングを決定するタイミング決定ステップと、
    前記サーバが、前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、前記タイミング決定ステップにおいて決定された前記再生タイミングに合わせて、対応する前記クライアントマシンに送信する音声情報送信ステップとを含む音声再生方法。
  15. 複数のクライアントマシンに音声情報を配信し、配信した音声情報を再生させるための音声再生プログラムであって、
    複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を格納する音声情報格納手段と、
    この話声音声情報それぞれの再生タイミングを決定するタイミング決定手段と、
    前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、対応する前記クライアントマシンに送信する音声情報送信手段として前記サーバを機能させ
    前記タイミング決定手段は、決定されたタイミングを示すタイミング情報を作成し、
    前記送信手段は、前記話声音声情報と伴に、前記話声音声情報毎に対応する前記タイミング情報を送信する音声再生プログラム。
  16. 複数のクライアントマシンに音声情報を配信し、配信した音声情報を再生させるための音声再生プログラムであって、
    複数の話者の話し声からなる会話を構成する各話者の話し声を内容とする話声音声情報を格納する音声情報格納手段と、
    この話声音声情報それぞれの再生タイミングを決定するタイミング決定手段と、
    前記クライアントマシンにより前記再生タイミングで再生される前記話声音声情報を、対応する前記クライアントマシンに送信する音声情報送信手段として前記サーバを機能させ、
    前記タイミング決定手段は、前記再生タイミングに合わせて、前記音声情報送信手段に前記話声音声情報を送信させる音声再生プログラム。
JP2003582630A 2002-04-09 2003-04-03 音声提供システム、サーバ、クライアントマシン及び音声提供方法 Expired - Fee Related JP3898185B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002106165 2002-04-09
JP2002106165 2002-04-09
PCT/JP2003/004266 WO2003085511A1 (fr) 2002-04-09 2003-04-03 Systeme fournisseur de parole, serveur, machine client, serveur de gestion fournisseur d'informations et procede fournisseur de parole

Publications (2)

Publication Number Publication Date
JPWO2003085511A1 JPWO2003085511A1 (ja) 2005-08-11
JP3898185B2 true JP3898185B2 (ja) 2007-03-28

Family

ID=28786413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003582630A Expired - Fee Related JP3898185B2 (ja) 2002-04-09 2003-04-03 音声提供システム、サーバ、クライアントマシン及び音声提供方法

Country Status (5)

Country Link
US (1) US7440899B2 (ja)
JP (1) JP3898185B2 (ja)
CN (1) CN100559341C (ja)
AU (1) AU2003236356A1 (ja)
WO (1) WO2003085511A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4218166B2 (ja) * 2000-01-21 2009-02-04 ブラザー工業株式会社 プロファイル作成方法及びプロファイル作成プログラムを記録したコンピュータ読取可能な記録媒体
EP1471499B1 (en) * 2003-04-25 2014-10-01 Alcatel Lucent Method of distributed speech synthesis
US7987244B1 (en) * 2004-12-30 2011-07-26 At&T Intellectual Property Ii, L.P. Network repository for voice fonts
JP6146182B2 (ja) 2013-07-23 2017-06-14 富士通株式会社 情報提供装置、情報提供システム、及び情報提供プログラム
US10102201B2 (en) * 2015-11-30 2018-10-16 Soundhound, Inc. Natural language module store

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5673362A (en) * 1991-11-12 1997-09-30 Fujitsu Limited Speech synthesis system in which a plurality of clients and at least one voice synthesizing server are connected to a local area network
JPH09131468A (ja) * 1995-11-09 1997-05-20 Matsushita Electric Ind Co Ltd 漫才人形
JP3644100B2 (ja) 1995-12-01 2005-04-27 松下電器産業株式会社 エージェント表示装置
US6112176A (en) * 1997-05-16 2000-08-29 Compaq Computer Corporation Speech data collection over the world wide web
US5983190A (en) * 1997-05-19 1999-11-09 Microsoft Corporation Client server animation system for managing interactive user interface characters
JP3932461B2 (ja) * 1997-05-21 2007-06-20 ソニー株式会社 クライアント装置、画像表示制御方法、共有仮想空間提供装置および方法、並びに記録媒体
US6147692A (en) * 1997-06-25 2000-11-14 Haptek, Inc. Method and apparatus for controlling transformation of two and three-dimensional images
JPH11259271A (ja) 1998-03-13 1999-09-24 Aqueous Reserch:Kk エージェント装置
US6249720B1 (en) 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
US6181351B1 (en) * 1998-04-13 2001-01-30 Microsoft Corporation Synchronizing the moveable mouths of animated characters with recorded speech
US6321226B1 (en) * 1998-06-30 2001-11-20 Microsoft Corporation Flexible keyboard searching
US6513006B2 (en) * 1999-08-26 2003-01-28 Matsushita Electronic Industrial Co., Ltd. Automatic control of household activity using speech recognition and natural language
US6339832B1 (en) * 1999-08-31 2002-01-15 Accenture Llp Exception response table in environment services patterns
US6766299B1 (en) * 1999-12-20 2004-07-20 Thrillionaire Productions, Inc. Speech-controlled animation system
GB9930720D0 (en) * 1999-12-29 2000-02-16 Ibm Call centre agent automated assistance
US7043530B2 (en) 2000-02-22 2006-05-09 At&T Corp. System, method and apparatus for communicating via instant messaging
JP2001256036A (ja) * 2000-03-03 2001-09-21 Ever Prospect Internatl Ltd 機器との情報授受方法及び当該方法を適用した対話機能を有する機器並びにこれら機器を複合させたライフサポートシステム
US6539354B1 (en) * 2000-03-24 2003-03-25 Fluent Speech Technologies, Inc. Methods and devices for producing and using synthetic visual speech based on natural coarticulation
CN100428763C (zh) 2000-05-26 2008-10-22 松下电工株式会社 用通信网络对特定用户提供顾客信息的方法及系统和终端
JP2001338210A (ja) * 2000-05-26 2001-12-07 Yano Keizai Kenkyusho:Kk 市場価値連動型の情報提供仲介システム
US20020008716A1 (en) * 2000-07-21 2002-01-24 Colburn Robert A. System and method for controlling expression characteristics of a virtual agent
JP2002057645A (ja) * 2000-08-10 2002-02-22 Ntt Docomo Inc データ転送方法および移動体サーバー
US20020052913A1 (en) 2000-09-06 2002-05-02 Teruhiro Yamada User support apparatus and system using agents
JP2002082748A (ja) * 2000-09-06 2002-03-22 Sanyo Electric Co Ltd ユーザ支援装置
JP2002099629A (ja) * 2000-09-22 2002-04-05 Casio Comput Co Ltd 学習情報提供システム及び記憶媒体
US6963839B1 (en) * 2000-11-03 2005-11-08 At&T Corp. System and method of controlling sound in a multi-media communication application
US7203648B1 (en) * 2000-11-03 2007-04-10 At&T Corp. Method for sending multi-media messages with customized audio
US6625576B2 (en) * 2001-01-29 2003-09-23 Lucent Technologies Inc. Method and apparatus for performing text-to-speech conversion in a client/server environment
JP2003114692A (ja) * 2001-10-05 2003-04-18 Toyota Motor Corp 音源データの提供システム、端末、玩具、提供方法、プログラム、および媒体

Also Published As

Publication number Publication date
JPWO2003085511A1 (ja) 2005-08-11
US20040172248A1 (en) 2004-09-02
CN100559341C (zh) 2009-11-11
CN1647024A (zh) 2005-07-27
AU2003236356A1 (en) 2003-10-20
WO2003085511A1 (fr) 2003-10-16
US7440899B2 (en) 2008-10-21

Similar Documents

Publication Publication Date Title
US10003840B2 (en) System and method for providing watch-now functionality in a media content environment
US6845486B2 (en) User support method and user support apparatus
US20160337682A1 (en) Providing content responsive to multimedia signals
JP4009940B2 (ja) 番組選択支援情報提供サービスシステムとサーバ装置および端末装置ならびに番組選択支援情報提供方法とプログラムおよび記録媒体
US20150317680A1 (en) Systems and methods for delivering media content with advertisements based on playlist context and advertisement campaigns
US20160189249A1 (en) System and method for delivering media content and advertisements across connected platforms, including use of companion advertisements
CN107548474A (zh) 基于情绪和/或行为信息的用于环境背景噪声修改的方法、系统和介质
US20020066105A1 (en) Information providing system, information providing apparatus and information providing method as well as data recording medium
WO2007076723A1 (fr) Système de transmission d'informations, système de transmission publique d'informations multimédia et procédé de transmission
KR20020050251A (ko) 에이젠트시스템, 정보제공방법 및 정보제공장치와데이터기록매체
US20160189222A1 (en) System and method for providing enhanced user-sponsor interaction in a media environment, including advertisement skipping and rating
Repo et al. Users inventing ways to enjoy new mobile services-the case of watching mobile videos
CN109478142A (zh) 呈现为预测的用户活动定制的用户界面的方法、系统和介质
US20160189232A1 (en) System and method for delivering media content and advertisements across connected platforms, including targeting to different locations and devices
US20060206823A1 (en) Information providing system, information providing apparatus and information providing method as well as data recording medium
CN109474562A (zh) 标识的显示方法和装置、请求的响应方法和装置
US20160350065A1 (en) Personalized car radio system
JP3898185B2 (ja) 音声提供システム、サーバ、クライアントマシン及び音声提供方法
CN109903755A (zh) 一种语音交互方法、装置、存储介质及空调器
JP2005332404A (ja) コンテンツ提供システム
JP2003108376A (ja) 応答メッセージ生成装置、及び端末装置
JP3696869B2 (ja) コンテンツ提供システム
KR20010091771A (ko) 동영상을 통한 전자상거래 서비스 방법
JP2019152969A (ja) ネットワークシステム、情報処理方法、およびサーバ
JP6904428B2 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060912

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061220

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110105

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120105

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130105

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130105

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees