JP7055327B2 - 会話収集装置、会話収集システム及び会話収集方法 - Google Patents

会話収集装置、会話収集システム及び会話収集方法 Download PDF

Info

Publication number
JP7055327B2
JP7055327B2 JP2017199584A JP2017199584A JP7055327B2 JP 7055327 B2 JP7055327 B2 JP 7055327B2 JP 2017199584 A JP2017199584 A JP 2017199584A JP 2017199584 A JP2017199584 A JP 2017199584A JP 7055327 B2 JP7055327 B2 JP 7055327B2
Authority
JP
Japan
Prior art keywords
user
utterance
conversation
response
agent terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017199584A
Other languages
English (en)
Other versions
JP2019074865A (ja
Inventor
義博 中橋
Original Assignee
ロボットスタート株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ロボットスタート株式会社 filed Critical ロボットスタート株式会社
Priority to JP2017199584A priority Critical patent/JP7055327B2/ja
Publication of JP2019074865A publication Critical patent/JP2019074865A/ja
Application granted granted Critical
Publication of JP7055327B2 publication Critical patent/JP7055327B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は会話収集装置、会話収集システム及び会話収集方法に関し、特に、会話エンジンに必要なユーザ間の会話を収集する技術に関する。
近年、人と、人の代わりとなるロボットのようなエージェント端末との対話を成立させるコミュニケーションシステムが提案されている。
その一つは、タスク指向型とよばれるもので、特定のタスクをエージェント端末に行わせるための対話システムである。例えば、ユーザが「今日の天気を教えて」といった発話(命令)に対して、エージェント端末は今日の天気予報を音声で伝える。これらの発話(命令)と返答(回答)の組合せは、予め一意に辞書に登録されている。
もう一つは、会話型と呼ばれるもので、エージェント端末に特有のタスクをさせるというより、ユーザがエージェント端末との会話を楽しむためのシステムである(非特許文献1)。これはchatbot(人工無能)対話システムを応用している。このchatbot対話システムは、ユーザと日常会話を行なうためのシステムであり、大きく分けて、辞書型(シナリオ型)、ログ型、マルコフ文生成型(テキスト生成型)等がある。その基本は所定の対話パターンをデータベース化しておき、対話時の入力内容に応じて相応しい返答内容を検索し、それをシステム側から出力する点にある。例えば、対話システムに対してユーザが「何が好きですか?」とキーボードやマイク等を通じて入力すると、システム側は「何-が-好き-です-か?」といった単語列に最も合致する返答データを検索する。データベースには予め入力例とそれに対応する返答文とが大量に格納されている。対話システムは検索結果によって選ばれた返答文を取り出し、それをスピーカやモニターを介してユーザに対して出力する。データベース中の返答内容の格納方法を工夫することで、ユーザの入力の一部を返答文に挿入することもできる。
しかしながら、現在の所、辞書型(シナリオ型)、ログ型、マルコフ文生成型(テキスト生成型)等のいずれの方法も完全とはいえず、人間とエージェント端末との会話が成立しない場合が多々ある。これは、会話エンジンが参照するデータベースの情報量が少ないためであり、所定の対話パターンをどのようにして多量に収集するのかが課題となっている。
そこで、本発明は、会話エンジンだけではカバーできなかった発話とその発話に対する返答を自動的に収集することができる会話収集装置、会話収集システム及び会話収集方法を提供することにある。
本発明の一態様は、ネットワークを介して、複数のエージェント端末と接続され、各複数のエージェント端末から会話の収集を行う会話収集装置であって、第1のエージェント端末で集音された第1のユーザの発話を、ネットワークを介して受信する第1のユーザ発話受信手段と、受信した前記第1のユーザの発話を、前記第1のエージェント端末以外の少なくとも一つ以上の第2のエージェント端末に送信する第1のユーザ発話送信手段と、前記第1のユーザの発話に対する返答として、前記第2のエージェント端末で集音された前記第2のユーザの返答を、ネットワークを介して受信する第2のユーザ発話受信手段と、前記第1のユーザの発話と前記第2のユーザの返答とを関連付けて会話データベースに登録する登録手段と、前記会話データベースに登録されている前記第1のユーザの発話と前記第2のユーザの返答との組み合わせの一覧を出力する出力手段とを有する会話収集装置である。
本発明の一態様は、会話収集システムであって、第1のエージェント端末と、第2のエージェント端末と、会話収集装置とを有し、前記第1のエージェント端末は、第1のユーザの発話を集音するマイクと、前記マイクで集音された第1のユーザの発話を、ネットワークを介して前記会話収集装置に送信する発話送信手段と、前記会話収集装置から送信される前記第1のユーザの発話に対する返答を、エージェント端末の返答として編集して、編集音声信号を出力する音声出力手段とを有し、第2のエージェント端末は、前記会話収集装置から送信される前記第1のユーザの発話を受信する受信手段と、前記受信した第1のユーザの発話を、エージェント端末の発話として編集して、編集音声信号を出力する音声出力手段と、第2のユーザの発話を集音するマイクと、前記第1のユーザの発話に対する返答として、前記マイクで集音された前記第2のユーザの返答を、ネットワークを介して前記会話収集装置に送信する返答送信手段とを有し、前記会話収集装置は、第1のエージェント端末で集音された前記第1のユーザの発話を、ネットワークを介して受信する第1のユーザ発話受信手段と、受信した前記第1のユーザの発話を、前記第1のエージェント端末以外の少なくとも一つ以上の前記第2のエージェント端末に送信する第1のユーザ発話送信手段と、前記第1のユーザの発話に対する返答として、前記第2のエージェント端末で集音された前記第2のユーザの返答を、ネットワークを介して受信する第2のユーザ発話受信手段と、前記第1のユーザの発話と前記第2のユーザの返答とを関連付けて会話データベースに登録する登録手段と、前記会話データベースに登録されている前記第1のユーザの発話と前記第2のユーザの返答との組み合わせの一覧を出力する出力手段とを有する会話収集システムである。
本発明の一態様は、ネットワークを介して、複数のエージェント端末が接続され、各複数のエージェント端末から会話の収集を行う会話収集方法であって、第1のエージェント端末で集音された第1のユーザの発話を、ネットワークを介して受信し、受信した前記第1のユーザの発話を、前記第1のエージェント端末以外の少なくとも一つ以上の第2のエージェント端末に送信し、前記第1のユーザの発話に対する返答として、前記第2のエージェント端末で集音された前記第2のユーザの返答を、ネットワークを介して受信し、前記第1のユーザの発話と前記第2のユーザの返答とを関連付けて会話データベースに登録し、前記会話データベースに登録されている前記第1のユーザの発話と前記第2のユーザの返答との組み合わせの一覧を出力する会話収集方法である。
本発明は、会話エンジンだけではカバーできなかった発話とその発話に対する返答を自動的に収集することができ、その会話の一覧を出力することができる。
図1は本発明の実施の形態に係るコミュニケーション情報収集システムを模式的に示した図である。 図2はユーザとエージェント端末1との間で行われる会話の動作を説明するための図である。 図3は発話に対する返答である発話を、会話エンジンにより検索又は生成することができない場合の動作を説明するための図である。 図4は会話蓄積リスト5の一例を示す図である。 図5は本発明の具体的な実施の形態のブロック図である。 図6はロボット10の構成を示すブロック図である。 図7は実施の形態における会話収集装置30のブロック図である。 図8は接続管理データベース37の一例を示す図である。 図9は接続管理データベース37の一例を示す図である。 図10はコンピュータ50のブロック図である。 図10は会話蓄積リストの一例を示す図である。
本発明の実施の形態を説明する。
図1は、本発明の実施の形態に係るコミュニケーション情報収集システムを模式的に示した図である。
図1中、1は第1のユーザ側に設置されるエージェント端末であり、2は第2のユーザ側に設置されるエージェント端末であり、3はネットワークを介してエージェント端末1とエージェント端末2とに接続される会話収集装置であり、4は会話が蓄積される会話情報蓄積データベースである。
エージェント端末1,2は、アシスタントデバイスとも呼ばれ、第1のユーザの質問又は要求等に対する回答やコンテンツの提供を行うものである。アシスタントデバイスの種類としては、ロボット、”Amazon Echo”や、”Google Home”等のアシスタントスピーカ、スマートフォン等がある。
会話収集装置3は、各エージェント端末1,2とのデータの送受信を行うための接続管理機能と、ユーザとエージェント端末1,2との会話を行うための会話エンジンの機能とを備える。
会話情報蓄積データベース4は、後述するように、ユーザのある発話に対して会話エンジンにより返答を見つけることができなかった場合に、ユーザの発話と他のエージェント端末から取得した返答とが関連付けられて蓄積されるデータベースである。
まず、ユーザとエージェント端末と間で通常行われる会話エンジンを用いた会話を説明する。図2は、ユーザとエージェント端末1との間で行われる会話の動作を説明するための図である。
第1のユーザが発話Xを行うと、エージェント端末1は発話Xを集音し、その発話Xの音声信号を会話収集装置3に送信する。発話Xの音声信号を受信した会話収集装置3は、発話Xに対する返答Yを、会話エンジンにより検索又は生成し、返答Yをエージェント端末1に送信する。返答Yを受信したエージェント端末1は、第1のユーザの発話Xに対する返答として、返答Yを音声出力する。これにより、第1のユーザとエージェント端末1との間で会話が成立する。
次に、発話に対する返答である発話を、会話エンジンにより検索又は生成することができない場合について説明する。図3は、発話に対する返答である発話を、会話エンジンにより検索又は生成することができない場合の動作を説明するための図である。
第1のユーザが発話Mを行うと、エージェント端末1は発話Mを集音し、その発話Mの音声信号を会話収集装置3に送信する。発話Mの音声信号を受信した会話収集装置3は、会話エンジンにより、発話Mに対する返答を検索又は生成することを試みる。しかし、その発話を検索又は生成することができない場合、会話収集装置3は、接続可能又は接続中のエージェント端末(図3ではエージェント端末2)に、発話Mを送信する。
発話Mを受信したエージェント端末2は、エージェント端末2の発話として、発話Mを出力する。エージェント端末2の発話Mを聞いた第2のユーザは、発話Mの返答として返答Nを発話する。第2のユーザが返答Nを行うと、エージェント端末2は返答Nを集音し、その返答Nの音声信号を会話収集装置3に送信する。
返答Nの音声信号を受信した会話収集装置3は、返答Nをエージェント端末1に送信する。返答Nを受信したエージェント端末1は、エージェント端末1の発話として、返答Nを出力する。これにより、第1のユーザとエージェント端末1との間で会話が成立する。
ここで、発話Mに対する返答である返答Nを検索又は生成することができなかった会話収集装置3は、発話Mと返答Nとを関連付けて、会話情報蓄積データベース4に蓄積していく。会話情報蓄積データベース4に蓄積された発話Mと返答Nとの組み合わせは、会話蓄積リスト5として出力される。
また、会話収集装置3は、各エージェント端末1,2とのデータの送受信を行うための接続管理のため、各エージェント端末1,2に対応付けられた第1及び第2のユーザのユーザ属性(例えば、第1及び第2のユーザの性別、年齢等)を予め保持している場合は、そのユーザ属性を第1のユーザの発話Mと第2のユーザの返答Nとを関連付けて蓄積しても良い。
更に、ユーザ属性は、予め保持している場合に限らず、第1の第2のユーザの発話を取得するタイミンクで、エージェント端末1,2が有するマイクやカメラなどでユーザ情報(ユーザの音声、画像)を取得し、ユーザ情報(ユーザの音声、画像)を解析することにより得られたユーザ属性(例えば、第1の第2のユーザの性別、年齢、感情等)でも良い。
図4は、会話蓄積リスト5の一例を示す図である。図4の例では、発話及びその発話をしたユーザのユーザ属性と、返答及びその返答をしたユーザのユーザ属性とが関連付けられたレコードの一覧のリストである。
このような構成にすることにより、現状の会話エンジンだけではカバーできなかった発話とその発話に対する返答を、ユーザに出力することができると共に、その発話と返答との組み合わせを、自動的に収集することができる。そして、その発話と返答との組み合わせの一覧を出力することができる。
次に、具体的な実施の形態を説明する。
以下の具体的な実施の形態では、エージェント端末1,2がロボット10、20の例を説明する。
図5は、具体的な実施の形態のブロック図である。
図5中、10は第1のユーザ側に設置されるロボットであり、20は第2のユーザ側に設置されるロボットであり、30はネットワークを介してロボット10とロボット20とに接続される会話収集装置であり、40は会話が蓄積される会話情報蓄積データベースである。
図6はロボットの構成を示すブロック図である。尚、ロボット10とロボット20とは、同様のものなので、ロボット10を例にしてロボットの構成を説明する。
図6に示す如く、ロボット10は、マイク11と、カメラ12と、音声編集部13と、スピーカ14と、制御部15と、通信部16とを有する。
マイク11は、第1のユーザの音声を集音するマイクである。
カメラ12は、第1のユーザの画像を撮影するカメラである。
音声編集部13は、ネットワークを通じて会話収集装置3から送られてくる音声信号を、ロボット10の発話として編集して、編集音声信号を生成するものである。ここで、音声信号の編集には二つあり、ひとつは会話収集装置30の会話エンジンにより出力されたテキストデータを、ロボット10の音声(音色や声色)に編集(変換)する場合である。他のひとつは、ユーザの音声信号を、ロボット10の音声(音色や声色)に編集(変換)するものである。例えば、男性又は女性のユーザの音声を、ロボット特有の中性の音声に編集(変換)したり、ユーザのカスタマイズによるロボットの音声に編集(変換)したりするものである。
スピーカ14は、音声編集部13により編集(変換)された編集音声信号を出力する少なくとも一以上のスピーカである。
通信部16は、会話収集装置3との通信を確立し、情報の送受信を行う。
制御部15は、マイク11、カメラ12と、音声編集部13と、スピーカ14と、通信部16とを制御する。
次に、会話収集装置30について説明する。
図7は実施の形態における会話収集装置30のブロック図である。
本実施の形態では、会話収集装置30は、会話エンジンを持つ会話サーバ31と、会話エンジンに用いられるシナリオデータベース管理するデータベース管理サーバ41とが存在する。
会話サーバ31は、ロボット間接続管理部32と、音声認識部33と、会話エンジン34と、画像解析部35と、会話登録部36とを備える。そして、会話サーバ31は、接続管理データベース37、シナリオデータベース38、会話情報蓄積データベース40とが接続されている。
図8は、接続管理データベース37の一例を示す図である。接続管理データベース37は、図8に示す如く、ロボット識別情報(ID)と、接続状況(接続中又は切断中)と、接続先のロボット識別情報(ID)とが関連付けられて記憶される。ここで、ロボット識別情報(ID)は、会話サーバ31と接続され、会話エンジン又は他のロボットを用いてユーザの発話に対する返答の発話を返すべきロボットの識別情報である。接続状況は、会話サーバ31と現在接続状態にあるかを示す情報である。接続先のロボット識別情報(ID)とは、会話エンジンを用いてユーザの発話に対する返答の発話を生成することができない場合、ユーザの発話を発言させるロボットの識別情報である。
ロボット間接続管理部32は、接続管理データベース37を用いて、ロボット間、本例では、ロボット10とロボット20との接続を管理する。具体的には、ユーザの発話に対する返答の要求がロボットからあった場合、そのロボットと接続を確立し、接続管理データベース37の接続状況を接続中にする。
また、会話エンジン34を用いてユーザの発話に対する返答の発話を生成することができない場合、現在接続されていない(切断中)のロボット中から、ユーザの発話を発言させるロボットを検索する。このとき、図9に示すように、接続管理データベース35にユーザ属性情報を記憶させておけば、そのユーザ属性に基づいて、ユーザの発話を発言させるロボットを検索するようにしても良い。ここで、ユーザ属性情報とは、ロボットを所有するユーザの年齢、性別、住所、趣味等である。
音声認識部33は、ロボット10、20から送信されてきた音声信号を、従来からある音声認識の技術を用いてテキスト化する。
会話エンジン34は、例えば、ログ型の会話エンジンである。会話エンジン34は、音声認識部33から渡されるテキストデータを分析し、その内容に応じてシナリオデータベース38を検索し、返答に適した発話(コンテンツ)を選択する。そして、選択した返答を、ロボット間接続管理部32を介して、発話したユーザのロボットに送信する。一方、会話エンジン34は、音声認識部33から渡されるテキストデータを分析してその内容に応じてシナリオデータベース38を検索した結果、ユーザの発話に対して適切な返答が無い場合、その結果及びユーザの発話を会話情報登録部36に送信する。
画像解析部35は、ロボット10、20が取得した、ユーザの発話時又は返答時の画像を解析し、そのユーザのユーザ属性や、リアクションの情報を取得する。
会話情報登録部36は、会話エンジン34の結果を受けて、音声認識部33から渡されるテキストデータに対応する音声信号を、ロボット間接続管理部32に送信する。また、会話情報登録部36は、ロボット間接続管理部32を介して他のロボットから送信される返答をテキスト化し、テキスト化された返答と、ユーザの発話(テキスト)とを関連付けて会話情報蓄積データベース40に登録する。
次に、データベース管理サーバ41について説明する。
データベース管理サーバ41は、会話情報出力部42と、会話情報選択部43とを備える。
会話情報出力部42は、会話情報蓄積データベース40に蓄積されている会話情報リストを出力する。出力方法は、ディスプレイに出力しても良いし、帳票の形式で紙に出力しても良い。
会話情報選択部43は、会話情報出力部42により出力された会話情報リストから適切な発話と返答との組み合わせを選択するものである。選択方法は、ディスプレイに表示された会話情報リストを、人間が確認し、適切な発話と返答との組み合わせと判断した場合は、その組み合わせを選択する。例えば、その組み合わせのレコードの選択ボックスにチェックを付けるような方法である。そして、選択された発話と返答との組み合わせは、シナリオデータベース38に登録される。
会話サーバ31及びデータベース管理サーバ41は、図10に示す如く、プロセッサ51、メモリ(ROMやRAM)52、記憶装置(ハードディスク、半導体ディスクなど)53、入力装置(キーボード、マウス、タッチパネルなど)54、表示装置55、通信装置56などのハードウェア資源を有する汎用のコンピュータ50により構成することができる。
コンピュータ50は、記憶装置53に格納されたプログラムがメモリ52にロードされ、プロセッサ51により実行されることにより、各ロボット間接続管理部32、音声認識部33、会話エンジン34、画像解析部35及び会話登録部36の処理や、会話情報出力部42及び会話情報選択部43の処理が実現されるものである。
尚、接続管理データベース37、シナリオデータベース38及び会話情報蓄積データベース40は、会話収集装置30が備えていても良いが、会話収集装置30と物理的に外部に設けられ、LANを介して会話収集装置30と接続されていても良い。また、接続管理データベース37と、シナリオデータベース38と、会話情報蓄積データベース40との一部又は全部は、一体に構成されていても良い。
次に、上述した構成における動作を説明する。
まず、第1のユーザが発話Xを行うと、ロボット10は発話Xを集音し、その発話Xの音声信号を会話サーバ31に送信する。会話サーバ31は、発話Xの音声信号を受信する。音声認識部33は、ロボット10は発話Xを、音声認識の技術を用いてテキスト化する。そして、会話エンジン34は、テキスト化された発話Xにより、発話Xに対する返答Yを検索又は生成する。
このとき、会話エンジン34により、発話Xに対する返答Yが検索又は生成することができる場合は、その返答Yをロボット10に送信する。返答Yを受信したロボット10は、第1のユーザの発話Xに対する返答として、返答Yを音声出力する。これにより、第1のユーザとロボット10との間で会話が成立する。
一方、会話エンジン34により、発話Xに対する返答Yが検索又は生成することができない場合、会話情報登録部36は、ロボット間接続管理部32に他のロボットとの接続の要求を出力する。
ロボット間接続管理部32は、接続管理データベース37を用いて、接続中ではないロボット20を検索し、そのロボット20に、テキスト化された発話Xを送信する。このとき、発話Xを送信したロボット10に対応するユーザ属性を参照し、類似するユーザ属性を持つロボット20に、テキスト化された発話Xを送信することが好ましい。また、接続管理データベース37のロボット20を接続中に更新する(例えば、図9のロボットA,B)。
ロボット間接続管理部32に指示した会話情報登録部36は、会話情報蓄積データベース40に、発話Xと発話Xを発したユーザのユーザ属性を登録する。
テキスト化された発話Xを受信したロボット20は、音声編集部13により、テキスト化された発話Xを編集し、ロボット20の発話としてスピーカ14から出力する。
ロボット20の発話Xを聞いた第2のユーザは、発話Xの返答として返答Yを発話する。第2のユーザが返答Yを行うと、ロボット20は返答Yをマイク11で集音し、その返答Yの音声信号を会話サーバ31に送信する。このとき、ロボット20のカメラ12は、発話Xを聞いた時の第2のユーザのリアクションを撮影し、会話サーバ31に送信しても良い。
返答Yの音声信号を受信した会話サーバ31は、返答Yをロボット10に送信する。
返答Yを受信したロボット10は、音声編集部13によりロボット10の発話に編集し、返答Yをスピーカ14から出力する。これにより、第1のユーザとロボット10との間で会話が成立する。このとき、ロボット10のカメラ12は、返答Yを聞いた時の第1のユーザのリアクションを撮影し、会話サーバ31に送信する。
会話サーバ31は、返答Yを発話Xと関連付けて、会話情報蓄積データベース40に蓄積していく。この時、会話サーバ31は、ロボット10から送信された第1のユーザの画像を画像解析部35により解析し、そのリアクション(例えば、良い反応、普通、悪い反応)を判定する。そして、そのリアクションとロボット20のユーザのユーザ属性とを、発話X及び返答Yと関連付けて会話情報蓄積データベース40に蓄積する。尚、ロボット20で、発話Xを聞いた時の第2のユーザのリアクションを撮影している場合、ロボット20から送信された第2のユーザの画像を画像解析部35により解析し、そのリアクション(例えば、良い反応、普通、悪い反応)を判定し、その結果を、更に発話X及び返答Yと関連付けて会話情報蓄積データベース40に蓄積しても良い。
次に、データベース管理サーバ41の動作を説明する。
会話情報出力部42は、会話情報蓄積データベース40に蓄積された発話と返答との組み合わせを、会話蓄積リストとして出力する。図11は、会話蓄積リストの一例を示す図である。図11の例では、発話及びその発話をしたユーザのユーザ属性と、返答及びその返答をしたユーザのユーザ属性と、リアクションとが関連付けられたレコードの一覧のリストである。
会話エンジン34の管理者は、出力された会話蓄積リストを参照し、シナリオデータベース38に新たに登録する発話と及びその返答を選択する。例えば、図11の例では、リアクションが良かった発話M及び返答Nと、発話X及び返答Yとである。管理者は、発話M及び返答Nと、発話X及び返答Yとの選択ボックスにチェックを入れて選択する。選択された発話M及び返答Nと、発話X及び返答Yとは、会話情報選択部43により、シナリオデータベース38に新たに登録される。
このような構成によれば、ユーザとロボットとの間で、会話エンジンが機能しなくても、自然な会話を継続できるばかりでなく、発話と返答との適切なシナリオを、シナリオデータベースに追加していくことができる。
尚、上述した例では、ユーザ属性を、接続管理データベース37に予め登録する例を説明したが、これに限られず、例えば、ロボット等に装着されているカメラ等からユーザ情報を取得し、そのユーザ情報に基づいてユーザ属性を取得するようにしても良い。
以上好ましい実施の形態をあげて本発明を説明したが、全ての実施の形態の構成を備える必要はなく、適時組合せて実施することができるばかりでなく、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 エージェント端末
2 エージェント端末
3 会話収集装置
4 会話情報蓄積データベース
10 ロボット
11 マイク
12 カメラ
13 音声編集部
14 スピーカ
15 制御部
16 通信部
20 ロボット
30 会話収集装置
31 会話サーバ
32 ロボット間接続管理部
33 音声認識部
34 会話エンジン
35 画像解析部
36 会話登録部
37 接続管理データベース
38 シナリオデータベース
40 会話情報蓄積データベース
41 データベース管理サーバ
42 会話情報出力部
43 会話情報選択部
50 コンピュータ
51 プロセッサ
52 メモリ
53 記憶装置
54 入力装置
55 表示装置
56 通信装置

Claims (5)

  1. ネットワークを介して、複数のエージェント端末と接続され、エージェント端末から会話の収集を行う会話収集装置であって、
    ユーザのユーザ属性が記憶されたデータベースと、
    第1のエージェント端末で集音された第1のユーザの発話を、ネットワークを介して受信する第1のユーザ発話受信手段と、
    前記第1のユーザの発話に対して返答を生成する会話エンジンと、
    前記会話エンジンにより、受信した前記第1のユーザの発話に対する返答が生成できない場合、前記データベースを参照し、前記第1のユーザのユーザ属性に類似するユーザ属性を持つ第2のユーザの第2のエージェント端末に、受信した前記第1のユーザの発話を送信する第1のユーザ発話送信手段と、
    前記第1のユーザの発話に対する返答として、前記第2のエージェント端末で集音された前記第2のユーザの返答を、ネットワークを介して受信する第2のユーザ発話受信手段と、
    前記第1のユーザの発話に対する返答として、前記第2のユーザの返答を前記第1のエージェント端末から発話させるために、前記第2のユーザの返答を前記第1のエージェント端末に送信する第2のユーザ返答送信手段と、
    前記第1のユーザの発話と、前記第2のユーザの返答と、前記第1のユーザのユーザ属性と、前記第2のユーザのユーザ属性と、を関連付けて会話データベースに登録する登録手段と、
    前記会話データベースに登録されている前記第1のユーザの発話と前記第2のユーザの返答との組み合わせの一覧を出力する出力手段と
    を有する会話収集装置。
  2. 前記第1のエージェント端末及び/又は前記第2のエージェント端末から得られたユーザ情報に基づいて、前記第1のユーザ及び/又は前記第2のユーザの属性を取得するユーザ属性取得手段を有し、
    前記登録手段は、取得した第1のユーザ及び/又は前記第2のユーザの属性を、前記第1のユーザの発話及び/又は前記第2のユーザの返答と関連付けて、前記会話データベースに登録する
    請求項1に記載の会話収集装置。
  3. 前記第2のユーザの返答に対する前記第1のユーザのリアクションの関する情報を取得する取得手段を有し、
    前記登録手段は、取得した第1のユーザのリアクションの情報を、前記第1のユーザの発話及び/又は前記第2のユーザの返答と関連付けて、前記会話データベースに登録する
    請求項1又は請求項2に記載の会話収集装置。
  4. 会話収集システムであって、
    第1のエージェント端末と、第2のエージェント端末と、会話収集装置とを有し、
    前記第1のエージェント端末は、
    第1のユーザの発話を集音するマイクと、
    前記マイクで集音された第1のユーザの発話を、ネットワークを介して前記会話収集装置に送信する発話送信手段と、
    前記会話収集装置から送信される前記第1のユーザの発話に対する返答を、エージェント端末の返答として編集して、編集音声信号を出力する音声出力手段と
    を有し、
    第2のエージェント端末は、
    前記会話収集装置から送信される前記第1のユーザの発話を受信する受信手段と、
    前記受信した第1のユーザの発話を、エージェント端末の発話として編集して、編集音声信号を出力する音声出力手段と
    第2のユーザの発話を集音するマイクと、
    前記第1のユーザの発話に対する返答として、前記マイクで集音された前記第2のユーザの返答を、ネットワークを介して前記会話収集装置に送信する返答送信手段と
    を有し、
    前記会話収集装置は、
    ユーザのユーザ属性が記憶されたデータベースと、
    前記第1のユーザの発話に対して返答を生成する会話エンジンと、
    第1のエージェント端末で集音された前記第1のユーザの発話を、ネットワークを介して受信する第1のユーザ発話受信手段と、
    前記会話エンジンにより、受信した前記第1のユーザの発話に対する返答が生成できない場合、前記データベースを参照し、前記第1のユーザのユーザ属性に類似するユーザ属性を持つ第2のユーザの第2のエージェント端末に、受信した前記第1のユーザの発話を送信する第1のユーザ発話送信手段と、
    前記第1のユーザの発話に対する返答として、前記第2のエージェント端末で集音された前記第2のユーザの返答を、ネットワークを介して受信する第2のユーザ発話受信手段と、
    前記第1のユーザの発話に対する返答として、前記第2のユーザの返答を前記第1のエージェント端末から発話させるために、前記第2のユーザの返答を前記第1のエージェント端末に送信する第2のユーザ返答送信手段と、
    前記第1のユーザの発話と、前記第2のユーザの返答と、前記第1のユーザのユーザ属性と、前記第2のユーザのユーザ属性と、を関連付けて会話データベースに登録する登録手段と、
    前記会話データベースに登録されている前記第1のユーザの発話と前記第2のユーザの返答との組み合わせの一覧を出力する出力手段と
    を有する会話収集システム。
  5. ネットワークを介して、複数のエージェント端末が接続され、エージェント端末から会話の収集を行う会話収集方法であって、
    第1のエージェント端末で集音された第1のユーザの発話を、ネットワークを介して受信し、
    ユーザの発話に対して返答を生成する会話エンジンにより、受信した前記第1のユーザの発話に対する返答が生成できない場合、ユーザのユーザ属性が記憶されたデータベースを参照し、前記第1のユーザのユーザ属性に類似するユーザ属性を持つ第2のユーザの第2のエージェント端末に、受信した前記第1のユーザの発話を送信し、
    前記第1のユーザの発話に対する返答として、前記第2のエージェント端末で集音された前記第2のユーザの返答を、ネットワークを介して受信し、
    前記第1のユーザの発話に対する返答として、前記第2のユーザの返答を前記第1のエージェント端末から発話させるために、前記第2のユーザの返答を前記第1のエージェント端末に送信し、
    前記第1のユーザの発話と、前記第2のユーザの返答と、前記第1のユーザのユーザ属性と、前記第2のユーザのユーザ属性と、を関連付けて会話データベースに登録し、
    前記会話データベースに登録されている前記第1のユーザの発話と前記第2のユーザの返答との組み合わせの一覧を出力する
    会話収集方法。
JP2017199584A 2017-10-13 2017-10-13 会話収集装置、会話収集システム及び会話収集方法 Active JP7055327B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017199584A JP7055327B2 (ja) 2017-10-13 2017-10-13 会話収集装置、会話収集システム及び会話収集方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017199584A JP7055327B2 (ja) 2017-10-13 2017-10-13 会話収集装置、会話収集システム及び会話収集方法

Publications (2)

Publication Number Publication Date
JP2019074865A JP2019074865A (ja) 2019-05-16
JP7055327B2 true JP7055327B2 (ja) 2022-04-18

Family

ID=66544075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017199584A Active JP7055327B2 (ja) 2017-10-13 2017-10-13 会話収集装置、会話収集システム及び会話収集方法

Country Status (1)

Country Link
JP (1) JP7055327B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6555838B1 (ja) * 2018-12-19 2019-08-07 Jeインターナショナル株式会社 音声問合せシステム、音声問合せ処理方法、スマートスピーカー運用サーバー装置、チャットボットポータルサーバー装置、およびプログラム。

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259399A (ja) 2001-02-26 2002-09-13 Tsubasa System Co Ltd データベースシステム
JP2004178087A (ja) 2002-11-25 2004-06-24 Sanyo Electric Co Ltd 対話システムに用いられる対話事例データ収集方法
JP2006031467A (ja) 2004-07-16 2006-02-02 Fujitsu Ltd 応答生成プログラム、応答生成方法、および応答生成装置
JP2007148661A (ja) 2005-11-25 2007-06-14 Ntt Docomo Inc コミュニティ制御システム及びコミュニティ制御方法
JP2015169768A (ja) 2014-03-06 2015-09-28 クラリオン株式会社 対話履歴管理装置、対話装置および対話履歴管理方法
JP2016103270A (ja) 2014-11-12 2016-06-02 株式会社アドバンスト・メディア 情報処理システム、受付サーバ、情報処理方法及びプログラム
WO2017086108A1 (ja) 2015-11-16 2017-05-26 大日本印刷株式会社 情報提示装置、情報提示方法、プログラム、情報処理装置及び案内ロボット制御システム
JP2017167367A (ja) 2016-03-16 2017-09-21 株式会社東芝 対話コーパス収集装置、方法、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9473637B1 (en) * 2015-07-28 2016-10-18 Xerox Corporation Learning generation templates from dialog transcripts

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259399A (ja) 2001-02-26 2002-09-13 Tsubasa System Co Ltd データベースシステム
JP2004178087A (ja) 2002-11-25 2004-06-24 Sanyo Electric Co Ltd 対話システムに用いられる対話事例データ収集方法
JP2006031467A (ja) 2004-07-16 2006-02-02 Fujitsu Ltd 応答生成プログラム、応答生成方法、および応答生成装置
JP2007148661A (ja) 2005-11-25 2007-06-14 Ntt Docomo Inc コミュニティ制御システム及びコミュニティ制御方法
JP2015169768A (ja) 2014-03-06 2015-09-28 クラリオン株式会社 対話履歴管理装置、対話装置および対話履歴管理方法
JP2016103270A (ja) 2014-11-12 2016-06-02 株式会社アドバンスト・メディア 情報処理システム、受付サーバ、情報処理方法及びプログラム
WO2017086108A1 (ja) 2015-11-16 2017-05-26 大日本印刷株式会社 情報提示装置、情報提示方法、プログラム、情報処理装置及び案内ロボット制御システム
JP2017167367A (ja) 2016-03-16 2017-09-21 株式会社東芝 対話コーパス収集装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2019074865A (ja) 2019-05-16

Similar Documents

Publication Publication Date Title
US11024307B2 (en) Method and apparatus to provide comprehensive smart assistant services
KR101683943B1 (ko) 음성번역 시스템, 제1 단말장치, 음성인식 서버장치, 번역 서버장치, 및 음성합성 서버장치
US9430467B2 (en) Mobile speech-to-speech interpretation system
US11037553B2 (en) Learning-type interactive device
JP4267081B2 (ja) 分散システムにおけるパターン認識登録
US8831939B2 (en) Voice data transferring device, terminal device, voice data transferring method, and voice recognition system
WO2018021237A1 (ja) 音声対話装置、音声対話方法、および記録媒体
US20200012724A1 (en) Bidirectional speech translation system, bidirectional speech translation method and program
KR20120107933A (ko) 음성번역 시스템, 제어장치, 및 제어방법
JP2017215468A (ja) 音声対話装置および音声対話方法
JP5062171B2 (ja) 音声認識システム、音声認識方法および音声認識用プログラム
JP2017107078A (ja) 音声対話方法、音声対話装置及び音声対話プログラム
JP2008225191A (ja) 議事録作成方法、その装置及びそのプログラム
JP2008225068A (ja) 議事録作成方法、その装置及びそのプログラム
US20130253932A1 (en) Conversation supporting device, conversation supporting method and conversation supporting program
WO2019031268A1 (ja) 情報処理装置、及び情報処理方法
US20210034662A1 (en) Systems and methods for managing voice queries using pronunciation information
JP7055327B2 (ja) 会話収集装置、会話収集システム及び会話収集方法
JP6448950B2 (ja) 音声対話装置及び電子機器
US10269349B2 (en) Voice interactive device and voice interaction method
JP2009288567A (ja) 議事録作成装置、議事録作成方法、議事録作成プログラム、議事録作成システム
JP2017191531A (ja) コミュニケーションシステム、サーバ及びコミュニケーション方法
US20220161131A1 (en) Systems and devices for controlling network applications
JP2005196020A (ja) 音声処理装置と方法並びにプログラム
JP3705587B2 (ja) 情報配信システムおよび情報配信方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210602

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7055327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150