JP3920175B2 - 通話活性化システム - Google Patents
通話活性化システム Download PDFInfo
- Publication number
- JP3920175B2 JP3920175B2 JP2002250954A JP2002250954A JP3920175B2 JP 3920175 B2 JP3920175 B2 JP 3920175B2 JP 2002250954 A JP2002250954 A JP 2002250954A JP 2002250954 A JP2002250954 A JP 2002250954A JP 3920175 B2 JP3920175 B2 JP 3920175B2
- Authority
- JP
- Japan
- Prior art keywords
- call
- user
- voice
- information
- auxiliary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
Description
【発明の属する技術分野】
本発明は、ユーザ間の通話を活性化するための通話活性化システムに関するものである。
【0002】
【従来の技術】
近年、ユーザと音声により対話する知的ヒューマンインターフェイスに関して種々の研究が行われ、例えば、「Social interaction : Multimodal conversation with social agents」(K. Nagao and A.Takeuchi,in Proc. AAAI-94,1994)、「エージェントサロン:パーソナルエージェント同士のおしゃべりを利用した出会いと対話の促進」(角、間瀬、電子情報通信学会論文誌、J84-D-1(8),2001年)等に開示される知的ヒューマンインターフェイスが知られている。
【0003】
【発明が解決しようとする課題】
しかしながら、前者の知的ヒューマンインターフェイスでは、対話に参加するエージェントがユーザに依存しない第三者的な存在であるため、対話しているユーザごとに当該ユーザに適した情報を必ずしも提供することができない。また、後者の知的ヒューマンインターフェイスでは、ユーザ同士の対面による会話を活性化するため、離れた場所にいるユーザ間の会話を活性化することはできず、利用場所が制限される。
【0004】
本発明の目的は、場所的な制約を軽減することができるとともに、ユーザごとに当該ユーザに適した話題を提供してユーザ間の会話を活性化することができる通話活性化システムを提供することである。
【0005】
【課題を解決するための手段および発明の効果】
(1)第1の発明
第1の発明に係る通話活性化システムは、相互に通話可能に接続された複数の通話手段と、複数の通話手段間の接続状態を制御する接続手段と、接続手段により接続された通話手段を用いて通話しているユーザ固有のユーザ情報に基づいて当該ユーザ間の通話状態に応じた補助音声を生成する補助音声生成手段と、補助音声生成手段により生成された補助音声を通話手段によるユーザの通話音声に重畳する音声重畳手段とを備え、前記補助音声生成手段は、前記複数の通話手段を使用するユーザごとにユーザ情報を蓄積して管理するユーザ情報管理手段と、前記通話音声を基にユーザ間の通話状態を判定する判定手段と、前記ユーザ情報管理手段に蓄積されているユーザ情報を参照して、前記判定手段により判定された通話状態に応じた補助音声を作成する補助音声作成手段とを含み、前記ユーザ情報管理手段は、ユーザの個人プロファイル情報及びスケジュール情報をユーザごとに蓄積するものである。
【0006】
本発明に係る通話活性化システムにおいては、複数の通話手段が相互に通話可能に接続され、接続された通話手段を用いて通話しているユーザ固有のユーザ情報に基づいて当該ユーザ間の通話状態に応じた補助音声が生成され、生成された補助音声が通話手段によるユーザの通話音声に重畳されるので、ユーザごとに当該ユーザに適した話題を補助音声により提供することができる。また、複数の通話手段の中から任意に選択された通話手段を相互に接続して通話することができるので、ユーザが対面していない時でもユーザ間で会話することができ、場所的な制約を軽減することができる。この結果、場所的な制約を軽減することができるとともに、ユーザごとに当該ユーザに適した話題を提供してユーザ間の会話を活性化することができる。
【0008】
また、ユーザ情報がユーザごとに蓄積されて管理されるとともに、ユーザ間の通話状態がユーザの通話音声を基に判定され、判定された通話状態に応じた補助音声が蓄積されているユーザ情報を参照して作成されるので、ユーザ間の通話状態に適し且つユーザごとに個人化された話題を提供することができる。さらに、ユーザごとに蓄積されているユーザの個人プロファイル情報及びスケジュール情報を参照して通話状態に応じた補助音声を作成しているので、より個人化した内容を有する補助音声を通話音声に重畳することができる。
【0009】
(2)第2の発明
第2の発明に係る通話活性化システムは、第1の発明に係る通話活性化システムの構成において、判定手段は、通話音声の韻律情報を検出する韻律情報検出手段と、韻律情報検出手段により検出された韻律情報を用いて通話状態を判定する通話状態判定手段とを含むものである。
【0010】
この場合、通話音声の意味内容を認識する音声認識に比して正確に検出することができる通話音声の韻律情報を用いて通話状態を判定しているので、通話状態をより正確に判定することができ、通話状態に適したタイミング及び状況で補助音声を重畳することができる。
【0015】
(3)第3の発明
第3の発明に係る通話活性化システムは、第1又は第2の発明に係る通話活性化システムの構成において、補助音声生成手段は、通話手段を用いて通話しているユーザごとに補助音声を生成するものである。
【0016】
この場合、通話しているユーザごとに補助音声を生成することができるので、より個人化した補助音声を通話音声に重畳することができ、補助音声に対するユーザの親近感をより向上することができる。
【0017】
【発明の実施の形態】
以下、本発明による通話活性化システムについて図面を参照しながら説明する。図1は、本発明の一実施の形態による通話活性化システムの構成を示すブロック図である。
【0018】
図1に示す通話活性化システムは、携帯電話装置1、固定電話装置2、電話接続サーバ4、エージェントサーバ5、位置情報提供サーバ6、天候情報提供サーバ7及び端末装置8を備える。
【0019】
携帯電話装置1及び固定電話装置2は、公知の電話回線網3を介して相互に通話可能に接続され、電話接続サーバ4は、交換機として機能し、電話回線網3の電話装置間の接続状態を制御する。携帯電話装置1は、通常の携帯電話器又はPHS(Personal Handyphone System)から構成され、ユーザが携帯して使用する。固定電話装置2は、通常の有線式の固定電話機から構成され、他のユーザの家庭又は職場等に設置されている。
【0020】
なお、図1では、携帯電話装置1及び固定電話装置2をそれぞれ1台づつ図示しているが、本発明に使用される電話装置の数及び種類は、この例に特に限定されず、他の電話装置と相互に通話可能な電話装置であれば、PHS機能を有する携帯情報端末(PDA)、IP電話機等の他の電話装置を複数用いてもよく、この場合、電話接続サーバ4は、ユーザが指示した電話装置間を接続する。
【0021】
電話接続サーバ4及びエージェントサーバ5は、専用線又はLAN(Local Area Network)等を介して相互に通信可能に接続される。電話接続サーバ4は、通常のサーバ装置等から構成され、携帯電話装置1及び固定電話装置2間の通話音声をエージェントサーバ5へ転送する。
【0022】
エージェントサーバ5は、通常のサーバ装置等から構成され、ユーザの個人秘書となるエージェントシステムとして機能する。エージェントサーバ5は、携帯電話装置1及び固定電話装置2を用いて通話しているユーザ固有のユーザ情報に基づいて当該ユーザ間の通話状態に応じた補助音声として、各ユーザの個人秘書となるエージェントの発話を生成して電話接続サーバ4へ送信する。電話接続サーバ4は、生成された補助音声を通話音声に重畳して、携帯電話装置1及び固定電話装置2へ転送する。
【0023】
なお、図1では、電話接続サーバ4とエージェントサーバ5とを別個のサーバ装置により構成しているが、一つのサーバ装置から電話接続サーバ4及びエージェントサーバ5を構成してもよいし、3台以上のサーバ装置から電話接続サーバ4及びエージェントサーバ5を構成するようにしてもよい。
【0024】
エージェントサーバ5、位置情報提供サーバ6、天候情報提供サーバ7及び端末装置8は、インターネット等のネットワーク9を介して相互に通信可能なように接続される。なお、ネットワーク9としては、上記の例に特に限定されず、イントラネット等の他のネットワーク、インターネット及びイントラネット等の種々のネットワークを組み合わせたネットワーク、専用線等を用いてもよい。
【0025】
位置情報提供サーバ6は、PHS等を用いて公知の位置検出手法を用いてユーザの現在位置情報を提供するサーバ装置であり、天候情報提供サーバ7は、各地の天気予報等の天候情報を提供するサーバ装置である。例えば、本実施の形態では、携帯電話装置1がPHSの場合に位置情報提供サーバ6により携帯電話装置1を使用するユーザの現在位置が検出され、固定電話装置2を使用するユーザの位置は、エージェントサーバ5にユーザ情報として予め記憶されている。
【0026】
エージェントサーバ5は、位置情報提供サーバ6及び天候情報提供サーバ7から提供される位置情報及び天候情報を状況情報として取得する。ここで、状況情報は、上記の例に特に限定されず、通話しているユーザの状況に関する情報であれば、他の情報を用いてもよく、エージェントサーバ5内部の計時手段により提供される時刻情報から朝、昼、夜等の時間帯情報を抽出したり、インターネットを介してニュース提供サーバ等から提供されるニュース情報等を用いてもよい。
【0027】
端末装置8は、通常のパーソナルコンピュータ等から構成され、携帯電話装置1(又は固定電話装置2)を使用するユーザがユーザ固有のユーザ情報等をエージェントサーバ5へ送信するために使用される。なお、図1では図示を容易にするために、1台の端末装置8のみを図示しているが、端末装置8をユーザごとに設け、2台以上用いてもよい。
【0028】
エージェントサーバ5は、携帯電話装置1、固定電話装置2及び端末装置8等を介して携帯電話装置1及び固定電話装置2を使用するユーザのユーザ情報を取得する。ここで、ユーザ情報には、個人プロファイル情報及びスケジュール情報が含まれ、個人プロファイル情報として、ユーザの氏名、性別、住所、友人関係、家族関係、好み、趣味、興味、過去の会話内容、過去の会話の傾向等が該当し、スケジュール情報としては、ユーザの過去の行動履歴、ユーザの将来の行動予定等が該当する。
【0029】
次に、電話接続サーバ4及びエージェントサーバ5についてさらに詳細に説明する。電話接続サーバ4は、内部のCPU(中央演算処理装置)等が所定のプログラムを実行することによりルーティング部41及び音声信号処理部42として機能する。
【0030】
ルーティング部41は、電話回線網3を介して電話装置間の接続状態を制御し、例えば、ユーザが携帯電話装置1を用いて固定電話装置2の電話番号をダイヤルした場合、ユーザが携帯電話装置1を用いて電話接続サーバ4にアクセスして通話先として固定電話装置2の電話番号を指定した場合等において、携帯電話装置1と固定電話装置2とを接続するように電話回線網3の接続状態を制御する。
【0031】
音声信号処理部42は、携帯電話装置1及び固定電話装置2を使用する各ユーザの通話音声をエージェントサーバ5へ送信し、エージェントサーバ5により生成されたエージェントの発話を通話音声に重畳して携帯電話装置1及び固定電話装置2へ送信する。
【0032】
エージェントサーバ5は、内部のCPU(中央演算処理装置)等が所定のプログラムを実行することにより、韻律検出部51、音声認識部52、通話状態判定部53、発話作成部54、ユーザ情報蓄積部55及び情報取得部56として機能する。
【0033】
韻律検出部51は、音声信号処理部42から送信されるユーザの通話音声の韻律に関する韻律情報を検出して通話状態判定部53へ出力する。ここで、韻律情報は、通話音声の韻律及び抑揚等に関する情報であり、通話音声の音声的な形式に関する情報を含み、例えば、音声の長短、子音、母音、抑揚、アクセント等の情報が該当する。
【0034】
音声認識部52は、音声信号処理部42から送信されるユーザの通話音声を認識して会話内容に関連するキーワードを検出し、検出したキーワードを通話状態判定部53へ出力する。キーワードとしては、例えば、会話に登場する関心事、友人名、今後の予定等が該当する。上記の音声認識の際に、音声認識部52は、ユーザ情報蓄積部55に蓄積されているユーザ情報を参照してキーワードを検出するようにしてもよく、この場合、音声認識の精度を向上することができる。また、抽出したキーワードが新たなユーザ情報に該当する場合、音声認識部52は、当該キーワードをユーザ情報蓄積部55へ出力してもよく、この場合、新たなユーザ情報をユーザ情報蓄積部55に蓄積することができる。
【0035】
情報取得部56は、位置情報提供サーバ6及び天候情報提供サーバ7からネットワーク9を介して提供される位置情報及び天候情報を状況情報として取得し、必要に応じて発話作成部54へ出力するとともに、ユーザ情報蓄積部55へ出力する。また、情報取得部56は、端末装置8から送信されるユーザの個人プロファイル情報及びスケジュール情報等をユーザ情報蓄積部55へ出力する。このとき、エージェントサーバ5により提供されるエージェントとユーザが端末装置8を用いてインタラクションを行い、日常的にユーザ情報をユーザ情報蓄積部55に蓄積するようにしてもよい。
【0036】
ユーザ情報蓄積部55は、上記のようにして取得されたユーザ情報をユーザごとにデータベース化して蓄積して管理する。なお、携帯電話装置1等がインターネット接続機能を有し、ネットワーク9を介してエージェントサーバ5にアクセス可能な場合、電話通話時だけでなく、待ち受け状態の時等においてエージェントサーバ5により提供されるエージェントとユーザがインタラクションを行い、その結果をユーザ情報としてユーザ情報蓄積部55に蓄積するようにしてもよい。
【0037】
通話状態判定部53は、韻律検出部51から出力される韻律情報、音声認識部52から出力されるキーワード及びユーザ情報蓄積部55に蓄積されているユーザ情報からユーザの通話状態を判定し、判定結果を発話作成部54へ出力する。
【0038】
発話作成部54は、ユーザ情報蓄積部55に蓄積されているユーザ情報をユーザごとに参照するとともに、情報取得部56により取得された状況情報をも必要に応じて参照し、通話状態判定部53により判定された通話状態に応じた補助音声としてユーザごとにエージェントの発話を生成し、生成した発話を音声信号処理部42へ送信する。
【0039】
本実施の形態では、携帯電話装置1及び固定電話装置2が通話手段に相当し、電話接続サーバ4が接続手段に相当し、エージェントサーバ5が補助音声生成手段に相当し、電話接続サーバ4が音声重畳手段に相当する。また、ユーザ情報蓄積部55がユーザ情報管理手段に相当し、韻律検出部51及び通話状態判定部53が判定手段に相当し、発話作成部54が補助音声作成手段に相当する。また、韻律検出部51が韻律情報検出手段に相当し、通話状態判定部53が通話状態判定手段に相当し、情報取得部56が状況情報取得手段に相当する。
【0040】
このように、本実施の形態では、ユーザ情報蓄積部55がユーザの個人プロファイル情報及びスケジュール情報を蓄積し、発話作成部54が蓄積されているユーザの個人プロファイル情報及びスケジュール情報を参照して通話状態に応じた補助音声を作成しているので、より個人化した内容を有する補助音声を通話音声に重畳することができる。また、通話しているユーザの状況を表す状況情報も参照して補助音声を作成しているので、現在のユーザの状況に適した種々の話題を補助音声として通話音声に重畳することができる。さらに、通話しているユーザごとに補助音声を作成することができるので、より個人化した情報を補助音声として通話音声に重畳することができ、補助音声に対するユーザの親近感を向上することができる。
【0041】
次に、上記のように構成された通話活性化システムの動作について説明する。図2は、図1に示す通話活性化システムの動作を説明するためのフローチャートである。なお、以下の説明では、ユーザ間の通話の一例として、携帯電話装置1を使用するユーザAが固定電話装置1を使用するユーザBに電話する場合について説明する。
【0042】
まず、ユーザAが携帯電話装置1を操作してユーザBに電話をかけようとするとき、携帯電話装置1が電話回線網3を介してユーザBの電話番号を電話接続サーバ4へ送信して通話要求を行うと、ステップS11において、電話接続サーバ4のルーティング部41は、携帯電話装置1から通話要求を受け付ける。次に、ステップS12において、ルーティング部41は、受信した電話番号により特定される電話装置すなわち固定電話装置2と携帯電話装置1とを電話回線網3を介して接続して回線を確立する。
【0043】
次に、ステップS13において、電話接続サーバ4の音声信号処理部42は、ユーザAの音声すなわち携帯電話装置1から送信される音声信号を受信して固定電話装置2へ転送するとともに、エージェントサーバ5へ送信する。また、音声信号処理部42は、ユーザBの音声すなわち固定電話装置2から送信される音声信号を受信して携帯電話装置1へ転送するとともに、エージェントサーバ5へ送信する。
【0044】
次に、ステップS21において、エージェントサーバ5の韻律情報検出部51は、送信される音声信号からユーザA及びBの通話音声の韻律情報を検出して通話状態判定部53へ出力する。
【0045】
次に、ステップS22において、通話状態判定部53は、検出された韻律情報を用いてユーザA及びBの通話状態を判定する。具体的には、通話状態判定部53は、対話のリズム、つまり、ユーザA及びBの発話交代のパターンや発話の重なり具合等から会話の盛り上がりを検出したり、発話中の音声の強弱変化や沈黙等からエージェントの発話のタイミングを特定する。
【0046】
例えば、通話状態判定部53は、通話状態として、どういう状況であれ、対話に一定以上のブランク(沈黙)を検出した場合に、状況依存なしと判定し、両者が程良く話していたり、各々の発話に抑揚があり、また発言権の受け渡しが適度に行われていたり、一定時間内において話している時間が各々ほぼ同じ場合に、双方が調子よく対話を続けていると判定し、一方が通話時間の大半を占め、声の抑揚及び音量が所定値以上あり、他方の発言が少なく、発話スピードが低下し、抑揚があまり見られず、相槌のタイミングもずれている場合に、一方が一人で盛り上がり、他方は乗り気でないと判定し、一方が通話時間の大半を占めるが、他方がタイミングよく相槌やコメントを入れている場合に、一方による説明が続いていると判定し、何らかの用件を伝え終えたのではなく、話すことがなくなり、飽きてきた、すなわち、話すことがなくなってきたが、何となく対話が続いている場合に、対話が収束に向かっていると判定する。これらの判定は、検出された韻律情報を用いて、ユーザA及びBの音声のトーンの低下、音量の低下、発言権のやり取りの減少、応答タイミングの遅延等を基準に行うことができる。
【0047】
このように、通話音声の意味内容を認識する音声認識に比して正確に検出することができる通話音声の韻律情報を用いて通話状態を判定しているので、通話状態をより正確に判定することができ、通話状態に適したタイミング及び状況で補助音声を重畳することができる。
【0048】
次に、ステップS23において、発話作成部54は、通話しているユーザA及びBのユーザ情報を取得する。具体的には、発話作成部54は、ユーザ情報蓄積部55に記憶されているユーザA及びBのユーザ情報を読み出してユーザごとにユーザ情報を取得する。また、音声認識部52は、受信したユーザA及びBの音声信号を用いてユーザA及びBの会話におけるキーワードを公知の音声認識手法を用いて抽出して発話作成部54へ出力し、発話作成部54は、キーワードから特定した現在の話題をユーザ情報として取得する。なお、抽出したキーワードがユーザ情報に該当し且つユーザ情報蓄積部55に記憶されていない場合、音声認識部52が抽出したキーワードをユーザ情報蓄積部55にユーザごとに記憶させるようにしてもよい。
【0049】
次に、ステップS24において、情報取得部56は、ネットワーク9を介して位置情報提供サーバ6及び天候情報サーバ7等からユーザの現在位置及び天候情報等を取得して発話作成部54へ出力する。
【0050】
次に、ステップS25において、発話作成部54は、ステップS22において判定された通話状態に応じ且つステップS23において取得されたユーザ情報に応じて個人化された補助音声を、ステップS24において取得した状況情報を適宜参照しながら、ユーザごとに設定したエージェントの音声により作成し、作成した音声信号を電話接続サーバ4へ出力する。
【0051】
補助音声を発するエージェントは、ユーザAとユーザBごとに異なるキャラクタをエージェントとして設定してもよいし、一つのエージェントをユーザA及びBのエージェントに設定してもよい。また、ステップS21〜S24の各処理の順序は、図2に示す例に特に限定されず、適宜変更が可能であり、また、ステップS21〜S24の各処理を並列的に処理してもよい。
【0052】
次に、ステップS14において、電話接続サーバ4の音声信号処理部42は、作成された各エージェントの音声をユーザA及びBの音声に重畳して携帯電話装置1及び固定電話装置2へ出力し、その後、ステップS13以降の処理を継続する。なお、各エージェントの音声をユーザA及びBの一方のみに重畳して一方のユーザのみに特定のエージェントの音声が聞こえるようにしてもよい。
【0053】
上記のように、本実施の形態では、携帯電話装置1及び固定電話装置2が相互に通話可能に接続され、接続された携帯電話装置1及び固定電話装置2を用いて通話しているユーザ固有のユーザ情報に基づいて当該ユーザ間の通話状態に応じた補助音声が生成され、生成された補助音声が通話音声に重畳されるので、ユーザごとに当該ユーザに適した話題を補助音声により提供することができる。また、携帯電話装置1及び固定電話装置2及び他の複数の電話装置(図示省略)の中から任意に選択された電話装置を相互に接続して通話することができるので、ユーザが対面していない時でもユーザ間で会話することができ、場所的な制約を軽減することができる。この結果、場所的な制約を軽減することができるとともに、ユーザごとに当該ユーザに適した話題を提供してユーザ間の会話を活性化することができる。
【0054】
また、ユーザ情報がユーザごとにユーザ情報蓄積部55に蓄積されて管理されるとともに、ユーザ間の通話状態がユーザの通話音声を基に判定され、判定された通話状態に応じた補助音声がユーザ情報を参照して作成されるので、ユーザ間の通話状態に適し且つユーザごとに個人化された話題を提供することができる。
【0055】
次に、図2に示すステップS25において生成されるエージェントの音声について具体例を挙げて詳細に説明する。図3は、通話状態として状況依存なしと判定された場合の発話生成処理を示すフローチャートである。
【0056】
図2に示すステップS22において通話状態として状況依存なしと判定された場合、ステップS31において、発話作成部54は、状況情報からユーザA又はBが以前に相手が話していた場所にきているか否か、または音声認識により検出されたキーワードからユーザA又はBがその場所について何かのコメントが発せられたか否かを判断し、いずれの条件も満たさない場合はステップS32へ移行し、少なくとも一方の条件を満たす場合、ステップS38に移行する。
【0057】
少なくとも一方の条件を満たす場合、ステップS38において、発話作成部54は、ユーザの追体験を促進するため、ユーザ情報蓄積部55に記憶されているユーザ情報を参照して、例えば、以前の対話中にその場所に面白いものがあるとか、風景が美しいと聞いていた場合、「この前、○○(ユーザの氏名)さんは、この辺りに○○(例えば、面白いものがある、または、風景が美しい)といったみたいですね。」という補助音声を生成し、その場所に来ていることを知らせる。
【0058】
一方、上記の条件に該当しない場合、ステップS32において、発話作成部54は、音声認識により検出されたキーワードからユーザA又はBが特定の何かについてコメントしたか否かを判断し、特定の何かについてコメントしていない場合はステップS33へ移行し、特定の何かについてコメントした場合、ステップS39に移行する。
【0059】
特定の何かについてコメントした場合、ステップS39において、発話作成部54は、ユーザの共感を促進するため、ユーザ情報蓄積部55に記憶されている他のユーザのユーザ情報を参照して、例えば、その場所である人が同じものを見て発言していた場合、「○○と言っていた人もいるみたいですよ。」という補助音声を生成し、他のユーザのコメントを知らせる。
【0060】
一方、特定の何かについてコメントしていない場合、ステップS33において、発話作成部54は、ユーザ情報蓄積部55に記憶されているユーザA及びBのスケジュール情報からユーザA又はBの次の予定が間近になっているか否かを判断し、次の予定が間近になっていない場合はステップS34へ移行し、次の予定が間近になっている場合、ステップS40において、「そろそろ○○の時間ですよ。」という補助音声を生成し、次の予定を知らせる。
【0061】
一方、次の予定が間近になっていない場合、ステップS34において、発話作成部54は、ユーザ情報蓄積部55に記憶されているユーザA及びBのスケジュール情報からユーザA及びBがある予定に関与するが、二人ともその予定を知らないか否かを判断し、その予定を知っている場合はステップS35へ移行し、二人ともその予定を知らない場合、ステップS41において、「○○さんもこれから会議に出るんですか。」等の補助音声を生成し、予定を確認させる。
【0062】
一方、予定を知っている場合、ステップS35において、発話作成部54は、状況情報からユーザA及びBが近くにいるが気付いていないか否かを判断し、近くにいない場合はステップS36へ移行し、ユーザA及びBが近くにいるが気付いていない場合、ステップS42において、「二人とも実は近くにいるんですよ。」という補助音声を生成し、ユーザが接近していることを知らせる。
【0063】
一方、近くに居ない場合、ステップS36において、発話作成部54は、状況情報等からユーザA及びBがいつもと違う場所にいるか否かを判断し、いつもと違う場所にいない場合はステップS37へ移行し、いつもと違う場所にいる場合、ステップS43において、「えらく変わった所に居るんですね。」又は「今○○ですか。遠いですね。」という補助音声を生成し、ユーザに現在の場所を確認させる。
【0064】
一方、いつもと違う場所にいない場合、ステップS37において、発話作成部54は、状況情報等からユーザAがユーザBの所すなわち相手の所へ行こうとしているか否かを判断し、相手の所へ行こうとしていない場合はステップS25へ戻って他の発話生成処理を実行し、相手の所へ行こうとしている場合、ステップS44において、相手のいる所への道案内を行うための所定の補助音声を生成し、道案内を行う。
【0065】
なお、この道案内は、上記のような状況判断だけでなく、エージェントの主人すなわちユーザによる明示的な指示に応じて行うようにしてもよい。また、ステップS31〜S37の各判断処理の順序は、図3に示す例に特に限定されず、適宜変更が可能であり、また、S31〜S37の各判断処理を割り込み処理により実行するようにしてもよい。
【0066】
図4は、通話状態として双方が調子よく対話を続けていると判定された場合の発話生成処理を示すフローチャートである。図2に示すステップS22において通話状態として双方が調子よく対話を続けていると判定された場合、ステップS51において、発話作成部54は、音声認識により検出されたキーワードから共通の友人がよく知っている事柄が話題の中心になっているか否かを判断し、当該事柄が話題の中心になっていない場合はステップS25へ戻って他の発話生成処理を実行し、当該事柄が話題の中心になっている場合、ステップS52において、話題の中心が当事者のよく知っていることから離れ、共通の友人が知っている領域に近いと判断して、この友人を呼び出すように電話接続サーバ4に指示し、通話者に問い合わせてから、ステップS25へ戻って他の発話生成処理を実行する。
【0067】
このとき、電話接続サーバ4のルーティング部41は、指示された友人の電話装置(図示省略)を電話回線網3を介して接続し、友人が電話に出た場合、エージェントサーバ5は、電話接続サーバ4を用いて上記の状況を説明する補助音声を友人のエージェントの音声により重畳し、友人にユーザA及びBの通話に参加するように促す。このように、3人以上の会話を促進するようにしてもよく、この場合、各ユーザごとに設定されたエージェントによる補助音声が重畳される。
【0068】
図5は、通話状態として一方が盛り上がり他方が乗り気でないと判定された場合の発話生成処理を示すフローチャートである。図2に示すステップS22において通話状態として一方が盛り上がり他方が乗り気でないと判定された場合、ステップS61において、発話作成部54は、ユーザ情報蓄積部55に記憶されているユーザA又はBの個人プロファイル情報から過去にも一方的になることが多かったか否かを判断し、過去には一方的になることが少なかった場合はステップS62へ移行し、過去にも一方的になることが多かった場合、ステップS63へ移行する。
【0069】
過去には一方的になることが少なかった場合、ステップS62において、発話作成部54は、唐突に関係のない話題を補助音声として生成し、一方的になっていることをユーザに暗に知らせ、過去にも一方的になることが多かった場合、ステップS63において、発話作成部54は、一方のユーザが言いづらいことを代弁するため、「ちょっと一方的に話しすぎですよ。」という補助音声を生成し、エージェントが一方的になっているユーザを直接たしなめ、ステップS25へ戻って他の発話生成処理を実行する。
【0070】
図6は、通話状態として一方による説明が続いていると判定された場合の発話生成処理を示すフローチャートである。図2に示すステップS22において通話状態として一方による説明が続いていると判定された場合、ステップS71において、発話作成部54は、音声認識により検出されたキーワードから何かの説明をしているか否かを判断し、何かの説明をしていない場合はステップS25へ戻って他の発話生成処理を実行し、何かの説明をしている場合、ステップS72において、説明に対する相槌を補助音声として生成した後、ステップS25へ戻って他の発話生成処理を実行する。
【0071】
図7は、通話状態として対話が収束に向かっていると判定された場合の発話生成処理を示すフローチャートである。図2に示すステップS22において通話状態として対話が収束に向かっていると判定された場合、ステップS81において、発話作成部54は、音声認識により検出されたキーワードから対話の主題が「予定」、「昔話」及び「趣味」のいずれに該当するかを判断し、対話の主題が「予定」の場合にステップS82へ移行し、「昔話」の場合にステップS87へ移行し、「趣味」の場合にステップS92へ移行する。具体的には、発話作成部54は、それぞれの発話から切り出されるキーワードからマップを形成してその占める領域から話題を特定する。
【0072】
対話の主題が「予定」の場合、ステップS82において、発話作成部54は、ユーザ情報蓄積部55に記憶されているユーザA及びBの個人プロファイル情報から、特定した予定に関係し得る共通の友人がいるか否かを判断し、予定に関係し得る共通の友人がいない場合はステップS83へ移行し、予定に関係し得る共通の友人がいる場合、ステップS85において、該当する友人を誘う補助音声を生成した後、ステップS25へ戻って他の発話生成処理を実行する。
【0073】
予定に関係し得る共通の友人がいない場合、ステップS83において、発話作成部54は、ユーザ情報蓄積部55に記憶されているユーザA及びBのスケジュール情報から、過去のスケジュールに一緒に行動したものがあるか否かを判断する。次に、発話作成部54は、過去のスケジュールに一緒に行動したものがない場合、ステップS84において、電話を切りやすい状況を提供するための終了イベントとして、状況情報から予定日の天気、その場所の情報、又は「晴れるといいですね。」等のコメントを補助音声として生成し、過去のスケジュールに一緒に行動したものがある場合、ステップS86において、過去のイベントを引き合いに出す補助音声を生成し、その後、ステップS25へ戻って他の発話生成処理を実行する。
【0074】
対話の主題が「昔話」の場合、ステップS87において、発話作成部54は、ユーザ情報蓄積部55に記憶されているユーザA及びBのスケジュール情報から過去のスケジュールに一緒に行動したものがあるか否かを判断し、過去のスケジュールに一緒に行動したものがない場合はステップS88へ移行し、過去のスケジュールに一緒に行動したものがある場合、ステップS90において、過去のイベントを引き合いに出す補助音声を生成した後、ステップS25へ戻って他の発話生成処理を実行する。
【0075】
過去のスケジュールに一緒に行動したものがない場合、ステップS88において、発話作成部54は、ユーザ情報蓄積部55に記憶されているユーザA及びBの個人プロファイル情報から興味に共通性があるか否かを判断する。次に、発話作成部54は、興味に共通性がない場合、ステップS89において、ステップS84と同様に終了イベントを実行し、興味に共通性がある場合、ステップS91において、情報取得部56等を用いて所定のウェブから趣味に関する未来のイベント情報を切り出して補助音声として生成し、その後、ステップS25へ戻って他の発話生成処理を実行する。
【0076】
対話の主題が「趣味」の場合、発話作成部54は、ステップS92,S95において、上記のステップS88,S91と同様の処理を行い、ステップS93,S94,S96において、上記のステップS87,S89,S90と同様の処理を行う。
【0077】
なお、発話生成処理は、上記の例に特に限定されず、ユーザ情報等に応じて種々の変更が可能であり、また、ユーザが使用する電話装置等が画像を表示可能な場合、任意の画像を作成可能な画像生成部をエージェントサーバ5に付加して、補助音声とともに補助画像をユーザごとに表示するようにしてもよい。また、エージェントサーバ5の機能を携帯電話装置1及び固定電話装置2に常駐させてエージェントサーバ5を省略してもよい。
【図面の簡単な説明】
【図1】本発明の一実施の形態による通話活性化システムの構成を示すブロック図である。
【図2】図1に示す通話活性化システムの動作を説明するためのフローチャートである。
【図3】通話状態として状況依存なしと判定された場合の発話生成処理を示すフローチャートである。
【図4】通話状態として双方が調子よく対話を続けていると判定された場合の発話生成処理を示すフローチャートである。
【図5】通話状態として一方が盛り上がり他方が乗り気でないと判定された場合の発話生成処理を示すフローチャートである。
【図6】通話状態として一方による説明が続いていると判定された場合の発話生成処理を示すフローチャートである。
【図7】通話状態として対話が収束に向かっていると判定された場合の発話生成処理を示すフローチャートである。
【符号の説明】
1 携帯電話装置
2 固定電話装置
3 電話回線網
4 電話接続サーバ
5 エージェントサーバ
6 位置情報提供サーバ
7 天候情報提供サーバ
8 端末装置
9 ネットワーク
41 ルーティング部
42 音声信号処理部
51 韻律検出部
52 音声認識部
53 通話状態判定部
54 発話作成部
55 ユーザ情報蓄積部
56 情報取得部
Claims (3)
- 相互に通話可能に接続された複数の通話手段と、
前記複数の通話手段間の接続状態を制御する接続手段と、
前記接続手段により接続された通話手段を用いて通話しているユーザ固有のユーザ情報に基づいて当該ユーザ間の通話状態に応じた補助音声を生成する補助音声生成手段と、
前記補助音声生成手段により生成された補助音声を前記通話手段によるユーザの通話音声に重畳する音声重畳手段とを備え、
前記補助音声生成手段は、
前記複数の通話手段を使用するユーザごとにユーザ情報を蓄積して管理するユーザ情報管理手段と、
前記通話音声を基にユーザ間の通話状態を判定する判定手段と、
前記ユーザ情報管理手段に蓄積されているユーザ情報を参照して、前記判定手段により判定された通話状態に応じた補助音声を作成する補助音声作成手段とを含み、
前記ユーザ情報管理手段は、ユーザの個人プロファイル情報及びスケジュール情報をユーザごとに蓄積することを特徴とする通話活性化システム。 - 前記判定手段は、
前記通話音声の韻律情報を検出する韻律情報検出手段と、
前記韻律情報検出手段により検出された韻律情報を用いて通話状態を判定する通話状態判定手段とを含むことを特徴とする請求項1記載の通話活性化システム。 - 前記補助音声生成手段は、前記通話手段を用いて通話しているユーザごとに補助音声を生成することを特徴とする請求項1又は2記載の通話活性化システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002250954A JP3920175B2 (ja) | 2002-08-29 | 2002-08-29 | 通話活性化システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002250954A JP3920175B2 (ja) | 2002-08-29 | 2002-08-29 | 通話活性化システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004096171A JP2004096171A (ja) | 2004-03-25 |
JP3920175B2 true JP3920175B2 (ja) | 2007-05-30 |
Family
ID=32057655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002250954A Expired - Fee Related JP3920175B2 (ja) | 2002-08-29 | 2002-08-29 | 通話活性化システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3920175B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10468052B2 (en) | 2015-02-16 | 2019-11-05 | Samsung Electronics Co., Ltd. | Method and device for providing information |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005283972A (ja) * | 2004-03-30 | 2005-10-13 | Advanced Media Inc | 音声認識方法及びこの音声認識方法を利用した情報提示方法と情報提示装置 |
JP2006139134A (ja) * | 2004-11-12 | 2006-06-01 | Pioneer Electronic Corp | 音声出力制御装置、音声出力制御システム、それらの方法、それらのプログラム、および、それらのプログラムを記録した記録媒体 |
JP2008217370A (ja) * | 2007-03-02 | 2008-09-18 | Nec Corp | プロファイル登録システム、プロファイル登録方法およびプロファイル登録プログラム |
US8060563B2 (en) * | 2008-12-29 | 2011-11-15 | Nortel Networks Limited | Collaboration agent |
JP2010206717A (ja) * | 2009-03-05 | 2010-09-16 | Nec Corp | 音声応答システム、音声応答装置および音声応答方法 |
JP5705274B2 (ja) * | 2013-07-12 | 2015-04-22 | ヤフー株式会社 | 情報処理装置及び方法 |
JP6280342B2 (ja) * | 2013-10-22 | 2018-02-14 | 株式会社Nttドコモ | 機能実行指示システム及び機能実行指示方法 |
CN105141506B (zh) | 2015-08-26 | 2018-06-29 | 小米科技有限责任公司 | 通信消息处理方法和装置 |
US11302317B2 (en) | 2017-03-24 | 2022-04-12 | Sony Corporation | Information processing apparatus and information processing method to attract interest of targets using voice utterance |
JP6697172B1 (ja) * | 2019-02-19 | 2020-05-20 | 富士通クライアントコンピューティング株式会社 | 情報処理装置および情報処理プログラム |
WO2020189340A1 (ja) * | 2019-03-20 | 2020-09-24 | ソニー株式会社 | 情報処理装置および情報処理方法、並びにプログラム |
JPWO2021200307A1 (ja) * | 2020-03-30 | 2021-10-07 |
-
2002
- 2002-08-29 JP JP2002250954A patent/JP3920175B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10468052B2 (en) | 2015-02-16 | 2019-11-05 | Samsung Electronics Co., Ltd. | Method and device for providing information |
Also Published As
Publication number | Publication date |
---|---|
JP2004096171A (ja) | 2004-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102418511B1 (ko) | 서드 파티 에이전트를 사용하기 위한 호출 요청 생성 및 전송 | |
US9614969B2 (en) | In-call translation | |
EP2761860B1 (en) | Automatically adapting user interfaces for hands-free interaction | |
US10496753B2 (en) | Automatically adapting user interfaces for hands-free interaction | |
US11809686B1 (en) | Voice communication targeting user interface | |
KR101816375B1 (ko) | 제한된 주의 산만 및 비제한된 주의 산만 컨텍스트에 대해 상이한 사용자 인터페이스를 제공하는 애플리케이션 게이트웨이 | |
JP3920175B2 (ja) | 通話活性化システム | |
US10705794B2 (en) | Automatically adapting user interfaces for hands-free interaction | |
KR101834624B1 (ko) | 핸즈 프리 상호작용을 위한 사용자 인터페이스 자동 적응 | |
KR20190042918A (ko) | 전자 장치 및 그의 동작 방법 | |
KR102574593B1 (ko) | 챗봇을 이용한 서비스 제공 방법 및 그 장치 | |
US9089772B2 (en) | Methods and systems for establishing games with automation using verbal communication | |
US20150347399A1 (en) | In-Call Translation | |
CN117221452A (zh) | 使用话音和文本的同步通信 | |
US20140195252A1 (en) | Systems and methods for hands-free notification summaries | |
US20130275138A1 (en) | Hands-Free List-Reading by Intelligent Automated Assistant | |
CN107481719A (zh) | 个人助理模块的非确定性任务发起 | |
US10403272B1 (en) | Facilitating participation in a virtual meeting using an intelligent assistant | |
CN112313930B (zh) | 管理保持的方法和装置 | |
KR20220140599A (ko) | 대화의 사람 참가자를 대신하여 생성된 합성 스피치 오디오 데이터 | |
JP2007049657A (ja) | 留守番電話装置 | |
CN111557001A (zh) | 通过提供即时应答性语言应答以提供自然语言对话的方法、计算机装置及计算机可读存储介质 | |
CN111556999A (zh) | 通过即时提供实质性回答以提供自然语言对话的方法、计算机装置及计算机可读存储介质 | |
JP2005283972A (ja) | 音声認識方法及びこの音声認識方法を利用した情報提示方法と情報提示装置 | |
KR20190083884A (ko) | 음성 명령을 처리하기 위한 전자 문서 표시 방법 및 그 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070214 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |