JP2011253389A - 端末および擬似会話用返答情報作成プログラム - Google Patents

端末および擬似会話用返答情報作成プログラム Download PDF

Info

Publication number
JP2011253389A
JP2011253389A JP2010127342A JP2010127342A JP2011253389A JP 2011253389 A JP2011253389 A JP 2011253389A JP 2010127342 A JP2010127342 A JP 2010127342A JP 2010127342 A JP2010127342 A JP 2010127342A JP 2011253389 A JP2011253389 A JP 2011253389A
Authority
JP
Japan
Prior art keywords
conversation
unit
response
recording unit
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010127342A
Other languages
English (en)
Inventor
Hiroyuki Ono
博之 小野
Katsuaki Akama
勝明 赤間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010127342A priority Critical patent/JP2011253389A/ja
Publication of JP2011253389A publication Critical patent/JP2011253389A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ユーザが飽きずに擬似会話を行うことができるようにすること。
【解決手段】発話記録部1は、ユーザが通話相手に向けて発した音声に基づいて生成された音声データを記録する。受話記録部2は、通話相手から送信されてきた音声データを記録する。音声文字変換部3は、発話記録部1に記録された音声データをテキストデータに変換する。音声文字変換部3は、受話記録部2に記録された音声データをテキストデータに変換する。会話テーブル作成部4は、変換されたテキストデータ並びにこのテキストデータの元の音声データが発話記録部1もしくは受話記録部2に記録された時刻に基づいてユーザの問いかけとこの問いかけに対する通話相手の返答とを対応付けた会話テーブルを作成する。返答テーブル作成部5は、作成された会話テーブルに基づいて同じ内容の問いかけごとに同じ内容の返答をまとめた返答テーブルを作成する。
【選択図】図1

Description

この発明は、ユーザとの間で擬似会話を行うことができる端末および擬似会話用返答情報作成プログラムに関する。
従来、例えば高齢者などの人との対話を模擬する対話機能を備えたコミュニケーション支援装置がある。コミュニケーション支援装置の一つとして、例えばユーザの家族の音声のデータをデータベースとして備え、このデータベースに登録されている音声ファイルを再生する装置がある。このコミュニケーション支援装置からはユーザの家族の音声が発せられるので、このコミュニケーション支援装置を使用することによってユーザは家族との会話を模擬することができる。
特開2003−108362号公報
しかしながら、従来のコミュニケーション支援装置では、対話を実現するためのデータベースを予め用意する必要があった。また、当該データベースの対話文は、単に用意しただけではユーザに応答する内容は常に同じであるため、ユーザはコミュニケーション支援装置から毎回同じ言葉を聞くことになる。例えば、ユーザがコミュニケーション支援装置に「おはよう」と問いかけると、コミュニケーション支援装置からは毎回「おはよう」という応答が返ってくる。このように応答内容に変化がないためユーザにすぐに飽きられてしまうという問題点がある。
ユーザがデータベースを整備したり随時更新したりすることを必要とせずに、ユーザが飽きずに擬似会話を行うことができる端末および擬似会話用返答情報作成プログラムを提供することを目的とする。
端末は発話記録部、受話記録部、音声文字変換部、会話テーブル作成部および返答テーブル作成部を備える。発話記録部は、ユーザが通話相手に向けて発した音声に基づいて生成された音声データを記録する。受話記録部は、通話相手から送信されてきた音声データを記録する。音声文字変換部は、発話記録部に記録された音声データをテキストデータに変換する。音声文字変換部は、受話記録部に記録された音声データをテキストデータに変換する。会話テーブル作成部は、音声文字変換部により変換されたテキストデータ並びにこのテキストデータの元の音声データが発話記録部もしくは受話記録部に記録された時刻に基づいて、発話記録部に記録された音声データに基づくテキストデータと受話記録部に記録された音声データに基づくテキストデータとを対応付けた会話テーブルを作成する。返答テーブル作成部は、会話テーブル作成部により作成された会話テーブルに基づいて同じ内容の問いかけごとに同じ内容の返答をまとめた返答テーブルを作成する。
この端末および擬似会話用返答情報作成プログラムによれば、ユーザが飽きずに擬似会話を行うことができるという効果を奏する。
実施例1にかかる端末の構成を示すブロック図である。 ユーザの音声分析結果の一例を示す図表である。 通話相手の音声分析結果の一例を示す図表である。 会話テーブルの一例を示す図表である。 返答テーブルの一例を示す図表である。 返答テーブルの一例を示す図表である。 実施例1にかかる擬似会話用返答情報作成方法を示すフローチャートである。 実施例2にかかる端末のハードウェア構成を示すブロック図である。 実施例2にかかる端末の機能的構成を示すブロック図である。 実施例2にかかる擬似会話用返答情報作成方法を示すフローチャートである。 図10の続きを示すフローチャートである。 実施例2にかかる擬似会話用返答情報作成方法におけるエージェント同期開始処理を示すフローチャートである。 実施例2にかかる擬似会話用返答情報作成方法における録音内容音声分析処理を示すフローチャートである。 実施例2にかかる擬似会話用返答情報作成方法における会話テーブル作成処理を示すフローチャートである。 実施例2にかかる擬似会話用返答情報作成方法におけるエージェント用会話抽出処理を示すフローチャートである。 図15の続きを示すフローチャートである。 実施例2にかかる端末における擬似会話処理を示すフローチャートである。
以下に添付図面を参照して、この端末および擬似会話用返答情報作成プログラムの好適な実施の形態を詳細に説明する。実施の形態は、端末を用いて話者ごとに通話内容を録音してテキスト化し、録音時刻に基づいて通話内容を対応付けた会話テーブルを作成し、同じ内容の会話ごとにまとめた返答テーブルを作成するようにしたものである。
(実施例1)
・端末の説明
図1は、実施例1にかかる端末の構成を示すブロック図である。図1に示すように、端末は発話記録部1、受話記録部2、音声文字変換部3、会話テーブル作成部4および返答テーブル作成部5を備える。
発話記録部1は、ユーザが通話相手に向けて発した音声に基づいて生成された音声データを記録する。音声データは、人が発した音声を電気信号に変換することにより生成される。受話記録部2は、通話相手から送信されてきた音声データを記録する。音声文字変換部3は、発話記録部1に記録された音声データを文字のデータ、すなわちテキストデータに変換する。音声文字変換部3は、受話記録部2に記録された音声データをテキストデータに変換する。
会話テーブル作成部4は、音声文字変換部3により変換されたテキストデータに基づいて会話テーブルを作成する。会話テーブル作成部4は、発話記録部1または受話記録部2に音声データが記録された時刻に基づいて会話テーブルを作成する。会話テーブルでは、ユーザの問いかけとこの問いかけに対する通話相手の返答とが対応付けられている。返答テーブル作成部5は、会話テーブル作成部4により作成された会話テーブルに基づいて返答テーブルを作成する。返答テーブルでは、同じ内容の問いかけごとに同じ内容の返答がまとめられている。
・会話テーブルの一例
図2は、ユーザの音声分析結果の一例を示す図表である。図3は、通話相手の音声分析結果の一例を示す図表である。図4は、会話テーブルの一例を示す図表である。例えば、ユーザが上述した端末を用いて通話相手との間で次のような会話をしたとする。なお、図2および図3において、hh:mm:ssは、記録された時刻hh時mm分ss秒を表す。
話者:ユーザ、時刻:hh時mm分00秒、会話内容:「おはよう。」
話者:通話相手、時刻:hh時mm分01秒、会話内容:「おはよう。」
話者:ユーザ、時刻:hh時mm分02秒、会話内容:「かわりないかい?」
話者:通話相手、時刻:hh時mm分03秒、会話内容:「かわりないよ。」
話者:ユーザ、時刻:hh時mm分04秒、会話内容:「この前送ってもらった携帯電話を使っているんだよ。」
話者:通話相手、時刻:hh時mm分06秒、会話内容:「使いやすいかい?」
話者:ユーザ、時刻:hh時mm分07秒、会話内容:「まだまだ使えない。」
話者:通話相手、時刻:hh時mm分08秒、会話内容:「そう。」
話者:ユーザ、時刻:hh時mm分09秒、会話内容:「家族は元気かい?」
話者:通話相手、時刻:hh時mm分10秒、会話内容:「みんな元気だよ。」
話者:ユーザ、時刻:hh時mm分11秒、会話内容:「健康が一番だからね。」
話者:通話相手、時刻:hh時mm分12秒、会話内容:「からだに気をつけてね。」
話者:ユーザ、時刻:hh時mm分13秒、会話内容:「じゃ、さよなら。」
話者:通話相手、時刻:hh時mm分14秒、会話内容:「さよなら。」
上述した内容の会話のうち、ユーザが発した言葉は発話記録部1に記録される。発話記録部1に記録された音声データをテキストデータに変換した分析結果は、図2に示すテーブル6のようになる。通話相手が発した言葉は受話記録部2に記録される。受話記録部2に記録された音声データをテキストデータに変換した分析結果は、図3に示すテーブル7のようになる。会話テーブル作成部4により、図2および図3に示す音声分析結果を時系列に並べて会話テーブルを作成すると、図4に示すテーブル8のようになる。
・返答テーブルの一例
図5および図6は、返答テーブルの一例を示す図表である。図4に示す会話テーブル8から挨拶の会話を抽出してまとめたものが、図5に示す挨拶の返答テーブル9である。図4に示す会話テーブル8から疑問文の会話を抽出してまとめたものが、図6に示す疑問文の返答テーブル10である。
上述した端末の各構成部1〜5は、図示省略するが、例えばプロセッサが擬似会話用返答情報作成プログラムを実行することにより実現されてもよい。擬似会話用返答情報作成プログラムは、例えば次に説明する擬似会話用返答情報作成方法をコンピュータに実行させるプログラムであってもよい。擬似会話用返答情報作成プログラムおよび図2〜図6に示す各テーブル6〜10は、プロセッサがアクセス可能なメモリに格納されてもよい。
・擬似会話用返答情報作成方法の説明
図7は、実施例1にかかる擬似会話用返答情報作成方法を示すフローチャートである。図7に示すように、ユーザが上述した端末を用いて通話相手と会話を始めると、擬似会話用返答情報を作成する処理が開始される。
まず、端末は発話記録部1に、ユーザが通話相手に向けて発した音声に基づいて生成された音声データを記録する。また、端末は発話記録部1に、通話相手から送信されてきた音声データを受話記録部2に記録する(ステップS1)。次いで、端末は音声文字変換部3により、ステップS1で発話記録部1に記録された音声データをテキストデータに変換する。また、端末は音声文字変換部3により、ステップS1で受話記録部2に記録された音声データをテキストデータに変換する(ステップS2)。
次いで、端末は会話テーブル作成部4により、ステップS2で変換されたテキストデータおよびステップS1でそのテキストデータの元の音声データが記録された時刻に基づいて、問いかけとこの問いかけに対する返答を対応付けて会話テーブルを作成する(ステップS3)。次いで、端末は返答テーブル作成部5により、ステップS3で作成された会話テーブルに基づいて、同じ内容の問いかけごとに同じ内容の返答をまとめて返答テーブルを作成する(ステップS4)。そして、一連の処理を終了する。
実施例1によれば、端末がユーザと通話相手との会話を学習してユーザの問いかけに対する通話相手の返答を返答テーブルに蓄積するので、同じような問いかけに対する同じような返答でも異なる文言や言い回しの複数の返答が返答テーブルに蓄積される。この端末が擬似会話のエージェントとして動作し、ユーザが誰とも通話していないときにこの端末に話しかけたときに、端末がユーザの問いかけに対応する複数の返答の中から一つを任意に選択してその返答を音声として出力してもよい。そうすれば、ユーザは同じような問いかけに対してその都度異なる文言や言い回しの返答を聞くことができる。また、ユーザが端末を用いて通話相手と会話する量が増えるとユーザの問いかけに対する通話相手の返答の種類が増える。従って、この端末を通話相手との会話の手段として用い、この端末を擬似会話のエージェントとして用いることによって、ユーザは飽きずに擬似会話を行うことができる。
端末が擬似会話のエージェントとして動作しているときに、ユーザの問いかけに対する返答を、例えば会話を学習したときの通話相手の音声を合成して出力してもよい。なお、ユーザの問いかけに対する通話相手の返答を返答テーブルに蓄積する端末と、返答テーブルを用いて擬似会話のエージェントとして動作する装置とを別々の装置としてもよい。
(実施例2)
実施例2は、端末の一例として例えば携帯電話機を用いたものである。
・端末の説明
図8は、実施例2にかかる端末のハードウェア構成を示すブロック図である。図8に示すように、端末はアンテナ21、無線通信部22、表示部23、マイク24、スピーカ25、音声入出力部26、操作部27、プロセッサ28およびメモリ29を備えている。なお、実施例1にかかる端末についても、図8と同様のハードウェア構成を備えるようにしても良い。
無線通信部22は、アンテナ21を介して図示しない基地局に無線接続し、送信信号および受信信号を増幅する。音声入出力部26はマイク24からのアナログの入力信号をデジタル信号に変換してプロセッサ28へ出力する。音声入出力部26はプロセッサのデジタルの出力信号をアナログ信号に変換し、増幅してスピーカ25へ出力する。プロセッサ28は擬似会話用返答情報作成プログラムおよび擬似会話応答プログラムを実行する。擬似会話用返答情報作成プログラムは、後述する擬似会話用返答情報作成方法をコンピュータ(プロセッサ)に実行させるプログラムである。擬似会話応答プログラムは、後述する擬似会話応答方法をコンピュータ(プロセッサ)に実行させるプログラムである。
メモリ29はプログラム記憶部30、データ記憶部31およびランダムアクセスメモリ(RAM:Random Access Memory)32を備えている。プログラム記憶部30は例えばリードオンリーメモリ(ROM:Read Only Memory)を備えており、擬似会話用返答情報作成プログラムおよび擬似会話応答プログラムを格納している。データ記憶部31は例えばEEPROM(Electrically Erasable and Programmable Read Only Memory)などの書き換え可能な不揮発性メモリを備えており、実施例1において説明した音声分析結果のテーブルや会話テーブルや返答テーブルなどのデータを格納する。ランダムアクセスメモリ32はプロセッサ28の作業領域として使用される。
表示部23は例えば液晶表示パネルを備えており、通話相手の電話番号などの文字や、通話相手の画像などの絵を表示する。操作部27はボタン、キー、スイッチおよびダイヤルなどを備えており、ユーザが通話相手に電話をかけたり通話相手からかかってきた電話にユーザが出る場合などに使用される。表示部23がタッチパネルを備えている場合には、表示部23は操作部27の一部を兼ねることがある。
図9は、実施例2にかかる端末の機能的構成を示すブロック図である。図9に示すように、端末は無線制御部41および呼制御部42を備えている。無線制御部41は受信信号の復調処理および復号処理、送信対象の信号の符号化処理および変調処理、並びにスケジューリング処理などを行う。呼制御部42は発呼および着呼の制御を行う。
また、端末はスピーカ制御部43、受話記録部44、発話記録部45、マイク制御部46、会話テーブル作成部47、音声文字変換部48、エージェント会話抽出部49、および返答テーブル作成部としてのエージェント学習部50を備えている。スピーカ制御部43は、音声入出力部26を介してスピーカ25へ出力される信号を監視する。受話記録部44はスピーカ25へ出力される信号のうち通話相手の会話を再生する音声データを記録する。マイク制御部46は、音声入出力部26を介してマイク24から入力される信号を監視する。発話記録部45は、マイク24から入力された音声データを記録する。受話記録部44および発話記録部45はメモリ29のデータ記憶部31に含まれている。
音声文字変換部48は、発話記録部45および受話記録部44にそれぞれ記録された音声データをテキストデータに変換する。会話テーブル作成部47は、音声文字変換部48により変換されたテキストデータを時系列に並べて会話テーブルを作成する。エージェント会話抽出部49は、擬似会話のエージェントが使用する会話として、会話テーブル作成部47により作成された会話テーブルに基づいてユーザの問いかけとこの問いかけに対する返答を抽出する。エージェント学習部50はエージェント会話抽出部49の抽出結果に基づいて返答テーブルを作成する。エージェント学習部50は呼制御部42、会話テーブル作成部47、音声文字変換部48およびエージェント会話抽出部49を制御する。
スピーカ制御部43、マイク制御部46、会話テーブル作成部47、音声文字変換部48およびエージェント会話抽出部49は、プロセッサ28が擬似会話用返答情報作成プログラムを実行することにより実現される。無線制御部41および呼制御部42は、プロセッサ28が無線制御および呼制御を行うプログラムを実行することにより実現される。無線制御および呼制御を行うプログラムは例えばプログラム記憶部30に格納されていてもよい。
また、端末はエージェント応答部51および表示制御部52を備えている。エージェント応答部51は、ユーザが誰とも通話していないときにこの端末に話しかけたときに応答し、ユーザの問いかけに対応する返答を返答テーブルから選択する。従って、この端末は擬似会話のエージェントとして動作する。エージェント応答部51は、プロセッサ28が擬似会話応答プログラムを実行することにより実現される。表示制御部52は表示部23に文字や絵を表示する際の制御を行う。表示制御部52は、プロセッサ28が表示制御プログラムを実行することにより実現される。表示制御プログラムは例えばプログラム記憶部30に格納されていてもよい。エージェント学習部50はエージェント応答部51および表示制御部52を制御する。
なお、端末は携帯電話機に限らず、固定電話機、無線送受信機または音声通話機能を備えたコンピュータなど、ユーザと通話相手とが1対1で会話をすることができる装置であればよい。ユーザと通話相手とが1対1で会話をすることができる装置であれば、擬似会話のエージェントとして動作する専用の装置であってもよい。
・擬似会話用返答情報作成方法の説明
図10は、実施例2にかかる擬似会話用返答情報作成方法を示すフローチャートである。図11は、図10の続きを示すフローチャートである。図10に示すように、ユーザが上述した端末を用いて電話をかけると擬似会話用返答情報を作成する処理が開始される。あるいは、上述した端末に電話がかかってくると擬似会話用返答情報を作成する処理が開始される。
まず、端末はエージェント学習部50によりエージェントの学習機能を起動する(ステップS11)。起動された学習機能において、例えば会話を学習する特定の通話相手が予め設定されていてもよい。特定の通話相手は例えばユーザにより設定されていてもよい。会話を学習する通話相手を特定する情報として例えば端末に固有の情報を用いてもよい。端末に固有の情報は例えば相手の携帯電話機や固定電話機の電話番号であってもよい。
エージェントの学習機能が起動されると、端末はエージェント学習部50により通話相手の端末との同期を開始する(ステップS12)。音声による通話が開始されるまでに通話相手の端末との同期が開始される。例えばユーザがかけた電話に通話相手が出るまで、あるいはかかってきた電話にユーザが出るまでには、同期が開始される。ステップS12で実施されるエージェント同期開始処理の詳細については後述する。一旦、エージェントが特定の通話相手の端末と同期状態になると、この通話相手との通話が切断された後もユーザがエージェントの同期状態を解除するまでエージェントの同期状態が保持されるようになっていてもよい。同期開始後、ユーザと通話相手との間で音声による通話が開始される(ステップS13)。
次いで、端末はエージェント学習部50により、通話先が予め設定された特定の同期相手であるか否かを例えば電話番号に基づいて判断する(ステップS14)。通話先が特定の同期相手である場合(ステップS14:Yes)、端末はユーザと通話相手との会話を録音する。すなわち、マイク制御部46およびスピーカ制御部43によりそれぞれ発話記録部45および受話記録部44にユーザおよび通話相手の通話内容を記録する(ステップS15)。通話先が特定の同期相手でない場合(ステップS14:No)、端末はユーザと通話相手との会話を録音しない。そして、音声による通話が終了する(ステップS16)。
次いで、図11に示すように、端末はエージェント学習部50により、通話先が予め設定された特定の同期相手であるか否かを例えば電話番号などの端末に固有の情報に基づいて判断する(ステップS17)。通話先が特定の同期相手である場合(ステップS17:Yes)、端末は音声文字変換部48により、ステップS15で録音された会話の内容を分析して、会話の内容をテキストに変換する(ステップS18)。次いで、端末は会話テーブル作成部47により、ステップS18で変換されたテキストデータに基づいて会話テーブルを作成する(ステップS19)。
次いで、端末はエージェント会話抽出部49により、ステップS19で作成された会話テーブルに基づいて擬似会話時にエージェントが使用する会話を抽出する(ステップS20)。次いで、端末はエージェント学習部50により、ステップS20で抽出された会話を返答テーブルに登録する。あるいは、端末はエージェント学習部50により、ステップS20で抽出された会話に基づいて返答テーブルを作成する(ステップS21)。そして、一連の処理を終了する。
ステップS18で実施される録音内容音声分析処理、ステップS19で実施される会話テーブル作成処理、およびステップS20で実施されるエージェント用会話抽出処理のそれぞれについては後述する。一方、ステップS17で通話先が特定の同期相手でないと判断された場合(ステップS17:No)、端末はステップS18からステップS21までを行わずに終了する。なお、通話相手の端末においても、同様の擬似会話用返答情報作成処理が実施されてもよい。
図12は、実施例2にかかる擬似会話用返答情報作成方法におけるエージェント同期開始処理を示すフローチャートである。図12に示すように、エージェント同期開始処理が開始されると、端末はエージェント学習部50により返答テーブルを参照する。予め特定の同期相手が設定されている場合には、この特定の同期相手用の返答テーブルを参照する(ステップS31)。該当する返答テーブルがある場合(ステップS32:Yes)、図10に示すメインルーチンに戻る。該当する返答テーブルがない場合(ステップS32:No)、返答テーブルを作成する。予め特定の同期相手が設定されている場合には、この特定の同期相手用の返答テーブルを作成する(ステップS33)。そして、図10に示すメインルーチンに戻る。
図13は、実施例2にかかる擬似会話用返答情報作成方法における録音内容音声分析処理を示すフローチャートである。図13に示すように、録音内容音声分析処理が開始されると、端末はエージェント学習部50により、録音された音声があるか否か、すなわち受話記録部44および発話記録部45に音声データが記録されているか否かを判定する(ステップS41)。録音された音声がない場合(ステップS41:No)、図11に示すメインルーチンに戻る。録音された音声がある場合(ステップS41:Yes)、端末はエージェント学習部50により、録音された音声の分析を開始する(ステップS42)。
例えば、エージェント学習部50は分析対象の音声を音声の区切れ単位で分割し(ステップS43)、音声文字変換部48に分割した音声のテキスト化を依頼する。なお、音声の各分割点に、音声の開始点からの経過時間を記録しておくものとする。このようにすることで、音声の開始点の時刻と経過時間とから各分割点の時刻を算出し、この算出された時刻をテキスト化された各音声に対応する記録時刻として利用することができる。音声文字変換部48は、エージェント学習部50からの依頼に基づいて音声をテキストに変換する(ステップS44)。全文章の分析が終了するまで(ステップS45:No)、音声の分割とテキスト化を繰り返す(ステップS43、ステップS44)。全文章の分析が終了したら(ステップS45:Yes)、端末はメモリ29のデータ記憶部31に分析結果を保存する(ステップS46)。そして、図11に示すメインルーチンに戻る。
図14は、実施例2にかかる擬似会話用返答情報作成方法における会話テーブル作成処理を示すフローチャートである。図13に示すように、録音内容音声分析処理が開始されると、端末はメモリ29のデータ記憶部31から通話相手の音声分析結果を読み出し、会話テーブル作成部47に入力する(ステップS51)。また、端末はメモリ29のデータ記憶部31からユーザの音声分析結果を読み出し、会話テーブル作成部47に入力する(ステップS52)。なお、ステップS51とステップS52との順番は問わない。
次いで、端末は会話テーブル作成部47によりユーザと通話相手との会話の記録時刻、すなわちタイムスタンプに基づいてユーザと通話相手との会話を時系列で対応付けて(ステップS53)、会話テーブルを作成する(ステップS54)。そして、図11に示すメインルーチンに戻る。
図15は、実施例2にかかる擬似会話用返答情報作成方法におけるエージェント用会話抽出処理を示すフローチャートである。図16は、図15の続きを示すフローチャートである。図15に示すように、エージェント用会話抽出処理が開始されると、端末はエージェント会話抽出部49によりユーザの会話の構文を分析し(ステップS61)、挨拶であるか否かを判定する(ステップS62)。
構文を分析した結果、ユーザの会話が挨拶である場合(ステップS62:Yes)、端末はエージェント会話抽出部49により、挨拶をまとめた返答テーブルを参照する(ステップS63)。端末はエージェント会話抽出部49により、挨拶をまとめた返答テーブルに同じ内容の挨拶があるか否かを判定する(ステップS64)。同じ内容の挨拶がある場合(ステップS64:Yes)、端末はエージェント学習部50により、挨拶をまとめた返答テーブルの同じ内容の挨拶に通話相手の返答を追加する(ステップS65)。同じ内容の挨拶がない場合(ステップS64:No)、端末はエージェント学習部50により、挨拶をまとめた返答テーブルに新たに挨拶と通話相手の返答とを記録する(ステップS66)。一方、構文を分析した結果、ユーザの会話が挨拶でない場合(ステップS62:No)、ステップS63からステップS66までを省略し、次のステップS67へ進む。
次いで、図16に示すように、ユーザの会話が疑問文であるか否かを判定する(ステップS67)。ユーザの会話が疑問文である場合(ステップS67:Yes)、端末はエージェント会話抽出部49により、疑問文をまとめた返答テーブルを参照する(ステップS68)。端末はエージェント会話抽出部49により、疑問文をまとめた返答テーブルに同じ内容の疑問文があるか否かを判定する(ステップS69)。同じ内容の疑問文がある場合(ステップS69:Yes)、端末はエージェント学習部50により、疑問文をまとめた返答テーブルの同じ内容の疑問文に通話相手の返答を追加する(ステップS70)。同じ内容の疑問文がない場合(ステップS69:No)、端末はエージェント学習部50により、疑問文をまとめた返答テーブルに新たに疑問文と通話相手の返答とを記録する(ステップS71)。一方、ユーザの会話が疑問文でない場合(ステップS67:No)、ステップS68からステップS71までを省略する。そして、図11に示すメインルーチンに戻る。なお、ステップS67からステップS71までを先に行ってからステップS62からステップS66までを行ってもよい。
・擬似会話処理の説明
図17は、実施例2にかかる端末における擬似会話処理を示すフローチャートである。図17に示すように、擬似会話処理が開始されると、端末はエージェント応答部51により、ユーザからの問いかけに対して擬似会話の応答を自動で行うモードであるか否かを判定する(ステップS81)。擬似会話の応答を自動で行うモードでない場合(ステップS81:No)、端末は擬似会話処理を終了する。擬似会話の応答を自動で行うモードである場合(ステップS81:Yes)、端末はマイク制御部46によりマイク24からの音声入力を監視し(ステップS82)、音声を検出するまで待機する(ステップS83:No)。
端末はマイク制御部46によりマイク24からの音声入力を検出したら(ステップS83:Yes)、音声文字変換部48により、検出した音声をテキスト化する(ステップS84)。次いで、端末はエージェント応答部51により返答テーブルを参照し、音声文字変換部48によりテキスト化されたユーザの問いかけと同じ内容の問いかけが返答テーブルにあるか否かを判定する(ステップS85)。返答テーブルに同じ内容の問いかけがない場合(ステップS85:No)、次の音声を検出するまで待機し、音声を検出したらテキスト化することを繰り返す(ステップS83、ステップS84)。
返答テーブルに同じ内容の問いかけがある場合(ステップS85:Yes)、端末はエージェント応答部51により、返答テーブルから対応する返答を選択する。ユーザの問いかけに対応する返答が複数ある場合、その中から例えば任意に一つを選択する(ステップS86)。次いで、端末はエージェント応答部51により、選択した返答の音声を合成し(ステップS87)、選択した返答をその合成した音声でもってスピーカ25から出力する(ステップS88)。その際、端末は、例えば会話を学習したときの通話相手の音声を合成してスピーカ25から出力してもよい。その場合には、端末は音声を合成する処理を行う処理部および音声のデータベースを備える。そして、ステップS83に戻る。
実施例2によれば、実施例1と同様の効果が得られる。特に、端末が携帯電話機や固定電話機であり、日々電話で会話する相手を特定の通話相手に設定することによって、効率よくユーザの問いかけに対する種々の返答を蓄積することができるので、ユーザは飽きずに擬似会話を行うことができる。なお、実施例2ではエージェント用会話抽出処理の一例としてユーザの会話が挨拶である場合と疑問文である場合とを抽出するとしたが、その他の構文を抽出してもよい。
1 発話記録部
2 受話記録部
3 音声文字変換部
4 会話テーブル作成部
5 返答テーブル作成部

Claims (5)

  1. ユーザが通話相手に向けて発した音声に基づいて生成された音声データを記録する発話記録部と、
    前記通話相手から送信されてきた音声データを記録する受話記録部と、
    前記発話記録部および前記受話記録部に記録された音声データをテキストデータに変換する音声文字変換部と、
    前記音声文字変換部により変換されたテキストデータ並びに該テキストデータの元の音声データが前記発話記録部もしくは前記受話記録部に記録された時刻に基づいて、前記発話記録部に記録された音声データに基づくテキストデータと前記受話記録部に記録された音声データに基づくテキストデータとを対応付けた会話テーブルを作成する会話テーブル作成部と、
    を備えることを特徴とする端末。
  2. 前記会話テーブルに基づいて、発話記録部に記録された音声データに基づくテキストデータが同じ内容であるテキストデータごとに、対応する受話記録部に記録された音声データに基づくテキストデータをまとめた返答テーブルを作成する返答テーブル作成部を備えることを特徴とする請求項1に記載の端末。
  3. 前記返答テーブル作成部は、端末に固有の情報に基づいて特定の端末を使用する通話相手との間の会話の内容から前記返答テーブルを作成することを特徴とする請求項1または2に記載の端末。
  4. 通話状態でないときに前記ユーザが問いかけを発した場合、前記返答テーブルの該問いかけに対応付けられた同じ内容の返答の中から一つの返答を任意に選択する応答部、を備えることを特徴とする請求項1または3に記載の端末。
  5. プロセッサが、マイクから入力された音声データをメモリの発話記録部に記録するとともに、スピーカへ出力される音声データを前記メモリの受話記録部に記録する記録ステップと、
    前記プロセッサが前記発話記録部および前記受話記録部から音声データを読み出してテキストデータに変換し、該テキストデータの元の音声データの記録時刻に基づいて、前記発話記録部に記録された音声データに基づくテキストデータと前記受話記録部に記録された音声データに基づくテキストデータとを対応付けた会話テーブルを作成して該会話テーブルを前記メモリに格納する会話テーブル作成ステップと、
    をコンピュータに実行させることを特徴とする擬似会話用返答情報作成プログラム。
JP2010127342A 2010-06-02 2010-06-02 端末および擬似会話用返答情報作成プログラム Pending JP2011253389A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010127342A JP2011253389A (ja) 2010-06-02 2010-06-02 端末および擬似会話用返答情報作成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010127342A JP2011253389A (ja) 2010-06-02 2010-06-02 端末および擬似会話用返答情報作成プログラム

Publications (1)

Publication Number Publication Date
JP2011253389A true JP2011253389A (ja) 2011-12-15

Family

ID=45417272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010127342A Pending JP2011253389A (ja) 2010-06-02 2010-06-02 端末および擬似会話用返答情報作成プログラム

Country Status (1)

Country Link
JP (1) JP2011253389A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5485436B1 (ja) * 2013-03-08 2014-05-07 メディアアクティブ株式会社 仮想電話着信装置、および仮想電話着信プログラム
WO2015093382A1 (ja) * 2013-12-20 2015-06-25 Re & Do 株式会社 サービス提供管理システム
WO2017183523A1 (ja) 2016-04-19 2017-10-26 Cocoro Sb株式会社 感情決定システム、システム及びプログラム
WO2017195519A1 (ja) 2016-05-13 2017-11-16 Cocoro Sb株式会社 記憶制御システム、システム及びプログラム
WO2017200081A1 (ja) * 2016-05-20 2017-11-23 日本電信電話株式会社 取得方法、生成方法、それらのシステム、及びプログラム
US10542149B2 (en) 2016-05-16 2020-01-21 Softbank Robotics Corp. Customer serving control system, customer serving system and computer-readable medium
JP2020507835A (ja) * 2016-12-31 2020-03-12 華為技術有限公司Huawei Technologies Co.,Ltd. ロボット、サーバおよびヒューマン・マシン・インタラクション方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004184788A (ja) * 2002-12-05 2004-07-02 Casio Comput Co Ltd 音声対話システムおよびプログラム
JP2004357294A (ja) * 2004-05-24 2004-12-16 Toshiba Corp 無線通信機能付きヘッドセット
JP2005210497A (ja) * 2004-01-23 2005-08-04 Mitsubishi Electric Corp 携帯情報端末
JP2006276754A (ja) * 2005-03-30 2006-10-12 Mitsubishi Electric Information Systems Corp オペレータ業務支援システム
JP2008234427A (ja) * 2007-03-22 2008-10-02 Toshiba Corp ユーザ間の対話を支援する装置、方法およびプログラム
JP2009201766A (ja) * 2008-02-28 2009-09-10 Namco Bandai Games Inc プログラム、情報記憶媒体、携帯型端末装置、端末装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004184788A (ja) * 2002-12-05 2004-07-02 Casio Comput Co Ltd 音声対話システムおよびプログラム
JP2005210497A (ja) * 2004-01-23 2005-08-04 Mitsubishi Electric Corp 携帯情報端末
JP2004357294A (ja) * 2004-05-24 2004-12-16 Toshiba Corp 無線通信機能付きヘッドセット
JP2006276754A (ja) * 2005-03-30 2006-10-12 Mitsubishi Electric Information Systems Corp オペレータ業務支援システム
JP2008234427A (ja) * 2007-03-22 2008-10-02 Toshiba Corp ユーザ間の対話を支援する装置、方法およびプログラム
JP2009201766A (ja) * 2008-02-28 2009-09-10 Namco Bandai Games Inc プログラム、情報記憶媒体、携帯型端末装置、端末装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5485436B1 (ja) * 2013-03-08 2014-05-07 メディアアクティブ株式会社 仮想電話着信装置、および仮想電話着信プログラム
WO2015093382A1 (ja) * 2013-12-20 2015-06-25 Re & Do 株式会社 サービス提供管理システム
KR20160099552A (ko) * 2013-12-20 2016-08-22 레엔도 가부시키가이샤 서비스 제공 관리 시스템
JPWO2015093382A1 (ja) * 2013-12-20 2017-03-16 Re&Do株式会社 サービス提供管理システム
US10820950B2 (en) 2013-12-20 2020-11-03 Re & Do Co., Ltd Service-provision management system
KR102231582B1 (ko) * 2013-12-20 2021-03-23 레엔도 가부시키가이샤 서비스 제공 관리 시스템
WO2017183523A1 (ja) 2016-04-19 2017-10-26 Cocoro Sb株式会社 感情決定システム、システム及びプログラム
WO2017195519A1 (ja) 2016-05-13 2017-11-16 Cocoro Sb株式会社 記憶制御システム、システム及びプログラム
US10542149B2 (en) 2016-05-16 2020-01-21 Softbank Robotics Corp. Customer serving control system, customer serving system and computer-readable medium
WO2017200081A1 (ja) * 2016-05-20 2017-11-23 日本電信電話株式会社 取得方法、生成方法、それらのシステム、及びプログラム
JP2020507835A (ja) * 2016-12-31 2020-03-12 華為技術有限公司Huawei Technologies Co.,Ltd. ロボット、サーバおよびヒューマン・マシン・インタラクション方法
US11858118B2 (en) 2016-12-31 2024-01-02 Huawei Technologies Co., Ltd. Robot, server, and human-machine interaction method

Similar Documents

Publication Publication Date Title
US7706510B2 (en) System and method for personalized text-to-voice synthesis
JP2011253389A (ja) 端末および擬似会話用返答情報作成プログラム
CN104079699A (zh) 蓝牙耳机及其控制方法
KR20070026452A (ko) 음성 인터랙티브 메시징을 위한 방법 및 장치
CN110149805A (zh) 双向语音翻译系统、双向语音翻译方法和程序
EP1804237A1 (en) System and method for personalized text to voice synthesis
CN110198375A (zh) 录音方法、终端及计算机可读存储介质
US8892173B2 (en) Mobile electronic device and sound control system
JP2010034695A (ja) 音声応答装置及び方法
WO2014077182A1 (ja) 携帯情報端末、シャドー音声管理方法及びコンピュータプログラム
US10002611B1 (en) Asynchronous audio messaging
CN102045462B (zh) 用于异构会话管理的统一接口的方法和装置
US9881611B2 (en) System and method for providing voice communication from textual and pre-recorded responses
US11790913B2 (en) Information providing method, apparatus, and storage medium, that transmit related information to a remote terminal based on identification information received from the remote terminal
US8775163B1 (en) Selectable silent mode for real-time audio communication system
JP2007201906A (ja) 携帯端末装置及び画像表示方法
KR100380829B1 (ko) 에이전트를 이용한 대화 방식 인터페이스 운영 시스템 및방법과 그 프로그램 소스를 기록한 기록 매체
JP6627315B2 (ja) 情報処理装置、情報処理方法、および制御プログラム
WO2021144964A1 (ja) ヒアリングデバイス、ヒアリングデバイスの調整方法
US20110216915A1 (en) Providing audible information to a speaker system via a mobile communication device
JP2007259427A (ja) 携帯端末装置
JP2020119043A (ja) 音声翻訳システムおよび音声翻訳方法
JP2007323512A (ja) 情報提供システム、携帯端末及びプログラム
JP4443753B2 (ja) 文字通訳装置
CN108766421B (zh) 语音交互的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140617