JP2018054850A - 情報処理システム、情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理システム、情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2018054850A
JP2018054850A JP2016190399A JP2016190399A JP2018054850A JP 2018054850 A JP2018054850 A JP 2018054850A JP 2016190399 A JP2016190399 A JP 2016190399A JP 2016190399 A JP2016190399 A JP 2016190399A JP 2018054850 A JP2018054850 A JP 2018054850A
Authority
JP
Japan
Prior art keywords
information
dialogue
user
agent
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016190399A
Other languages
English (en)
Inventor
祐紀 金子
Sukenori Kaneko
祐紀 金子
田中 康成
Yasunari Tanaka
康成 田中
政久 篠崎
Masahisa Shinozaki
政久 篠崎
梅木 秀雄
Hideo Umeki
秀雄 梅木
久子 吉田
Hisako Yoshida
久子 吉田
藍 松井
Ai Matsui
藍 松井
建良 金谷
Takeyoshi Kanetani
建良 金谷
啓司 久保田
Keiji Kubota
啓司 久保田
一穗 井越
Kazuho IGOSHI
一穗 井越
元一 岩崎
Genichi Iwasaki
元一 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2016190399A priority Critical patent/JP2018054850A/ja
Priority to US16/336,820 priority patent/US10984794B1/en
Priority to PCT/JP2017/033061 priority patent/WO2018061774A1/ja
Priority to CN201780060050.0A priority patent/CN109791551A/zh
Publication of JP2018054850A publication Critical patent/JP2018054850A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding

Abstract

【課題】ユーザの発言に対して多様な応答をすることができる情報処理システムを提供することである。
【解決手段】実施形態の情報処理システムは、記憶部と、複数の対話部と、選択部とを持つ。前記記憶部は、対話における発言の生成規則を示す規則情報を記憶する。前記複数の対話部は、前記規則情報に基づいて、それぞれが、ユーザとの対話を行う。前記選択部は、前記複数の対話部のうちの一部又は全部を選択して対話を行わせる。
【選択図】図1

Description

本発明の実施形態は、情報処理システム、情報処理装置、情報処理方法、及びプログラムに関する。
情報処理技術を用いて、ユーザからの問いかけに対する解を探索し、ユーザに提示するシステムが存在する。しかしながら、問いかけに対して明確な解がない場合やシステムから提案をして欲しい場合等において、従来の技術では、画一的な最適解や提案のみしか行えない場合がある。
特表2008−512789号公報
本発明が解決しようとする課題は、ユーザの発言に対して多様な応答をすることができる情報処理システム、情報処理装置、情報処理方法、及びプログラムを提供することである。
実施形態の情報処理システムは、記憶部と、複数の対話部と、選択部とを持つ。前記記憶部は、対話における発言の生成規則を示す規則情報を記憶する。前記複数の対話部は、前記規則情報に基づいて、それぞれが、ユーザとの対話を行う。前記選択部は、前記複数の対話部のうちの一部又は全部を選択して対話を行わせる。
第1の実施形態に係る情報処理システムの概要を示す図。 同実施形態に係る情報処理システムの構成を示すブロック図。 同実施形態に係る端末装置の構成を示すブロック図。 同実施形態に係る応答制御装置の構成を示す図。 同実施形態に係るシーン情報のデータ構成を示す図。 同実施形態に係る履歴情報のデータ構成を示す図。 同実施形態に係る情報処理システムによる処理の流れを示すフローチャート。 同実施形態に係る情報処理システムによる応答の提示例を示す図。 第2の実施形態に係る応答制御装置の構成を示すブロック図。 同実施形態に係るシーン別順位情報のデータ構成を示す図。 第3の実施形態に係る応答制御装置の構成を示すブロック図。 同実施形態に係るエージェント属性情報のデータ構成を示す図。 同実施形態に係るユーザ情報のデータ構成を示す図。 第4の実施形態に係る応答制御装置の構成を示すブロック図。 第5の実施形態に係る端末装置の構成を示すブロック図。 同実施形態に係る応答制御装置の構成を示すブロック図。
以下、実施形態の情報処理システム、情報処理装置、情報処理方法、及びプログラムを、図面を参照して説明する。
(第1の実施形態)
第1の実施形態に係る情報処理システム1の概要について説明する。
図1は、情報処理システムの概要を示す図である。
図1に示すように、情報処理システム1は、ユーザの発言に応じて発言や意見、選択肢などを返すシステムである。以下では、ユーザの発言に対して、情報処理システム1が返すものを「応答」と称する。また、以下では、ユーザの発言と情報処理システム1が生成する発言とのやり取りを、「対話」と称する。なお、情報処理システム1に入力されるユーザからの発言や、情報処理システム1から出力される応答は、音声に限らずテキストなどでもよい。
情報処理システム1には、応答を生成するための構成が設けられている。以下では、独立して応答を生成可能な構成の単位を「エージェント」と称する。情報処理システム1は、複数のエージェントを備える。各エージェントは、異なる個性を有する。以下では、「個性」とは、応答の傾向、応答の内容、応答の表現方法等に影響する要素をいう。例えば、各エージェントの個性は、応答を生成するために用いられる情報(例えば、機械学習の教示データ、後述する履歴情報、ユーザ情報等)の内容、応答の生成における論理展開、応答の生成に用いられるアルゴリズム等の要素により定められる。エージェントの個性付けは、任意の方法で行われてよい。このように、情報処理システム1は、個性が異なる複数のエージェントにより生成された応答を提示するため、ユーザに対して多様な考え方や選択肢を提案し、ユーザの決断を支援することができる。
本実施形態では、一例として、エージェントには2種類がある。
第1種のエージェントは、意見や感想等の主張を伴う応答を生成するエージェントである。以下では、第1種のエージェントを、「対話エージェント」と称する。
第2種のエージェントは、ユーザと情報処理システム1との間の対話において、窓口として機能するエージェントである。以下では、第2種のエージェントを、「コンシェルジュ」と称する。コンシェルジュは、ユーザの発言に対して適切な応答が行えるようにするための機能を備える。例えば、コンシェルジュは、ユーザの発言意図を明確にするための質問をユーザに対して行ったり、対話のシーン(場面)を特定したりする。シーンとは、ユーザの発言の背景や局面の種類であり、シチュエーションともいう。
コンシェルジュは、実際に応答を行う対話エージェントを、シーンに応じて選択する。換言すると、コンシェルジュは、対話エージェントのうち、実際に応答を行う対話エージェントを、シーンに応じて変更する。以下では、対話エージェントのうち、実際に応答を行う対話エージェントを、「応答用エージェント」と称することがある。「実際に応答を行う」とは、実際にユーザに提示される応答を生成することである。つまり、応答用エージェントが生成した応答は、ユーザに提示される。これに対して、応答用エージェントではない対話エージェントは、応答を生成しなくてもよいし、応答を生成してもよい。応答用エージェントではない対話エージェントが生成した応答は、ユーザに提示されない。このように、情報処理システム1は、応答用エージェントをシーンに応じて絞り込むため、シーンに適した応答のみを提示しやすい。
次に、情報処理システム1の構成について説明する。
図2は、情報処理システム1の構成を示すブロック図である。
情報処理システム1は、複数の端末装置10−1、10−2、…と、応答制御装置30とを備える。以下では、特に区別しない限り、複数の端末装置10−1、10−2、…を、端末装置10と総称する。端末装置10と、応答制御装置30とは、ネットワークNWを介して通信可能に接続されている。
端末装置10は、コンピュータシステムを備える電子機器である。具体的には、端末装置10は、パーソナルコンピュータ、携帯電話、タブレット、スマートフォン、PHS(Personal Handy−phone System)端末装置、ゲーム機等である。端末装置10は、ユーザからの入力を受け付けたり、ユーザに対して情報の提示を行ったりする。
応答制御装置30は、コンピュータシステムを備える電子機器である。具体的には、応答制御装置30は、サーバ装置等である。応答制御装置30は、エージェントを実装する。本実施形態では、一例として、エージェントが人工知能により実現される場合について説明する。人工知能とは、学習、推論、判断等の人間の知的な機能を模倣するコンピュータシステムである。人工知能を実現するためのアルゴリズムは、任意であってよい。具体的には、人工知能は、ニューラルネットワーク、事例ベース推論等により実現されてよい。
ここで、情報処理システム1による処理の流れの概要について説明する。
端末装置10は、ユーザから発言の入力を受け付ける。端末装置10は、ユーザの発言を示す情報を、応答制御装置30に送信する。応答制御装置30は、ユーザの発言を示す情報を、端末装置10から受信する。応答制御装置30は、ユーザの発言を示す情報を参照し、ユーザの発言に応じた応答を示す情報を生成する。応答制御装置30は、応答を示す情報を端末装置10に送信する。端末装置10は、応答を示す情報を、応答制御装置30から受信する。端末装置10は、応答を示す情報を参照し、応答の内容を、表示や音声により提示する。
次に、端末装置10の構成について説明する。
図3は、端末装置10の構成を示すブロック図である。
端末装置10は、通信部11と、入力部12と、表示部13と、音声出力部14と、記憶部15と、制御部16と、を備える。
通信部11は、応答制御装置30等のネットワークNWに接続する他の装置と、各種情報を送受信する。通信部11は、通信用IC(Integrated Circuit)等を含む。
入力部12は、各種情報の入力を受け付ける。例えば、入力部12は、ユーザによる発言の入力、対話のシーンの選択を受け付ける。入力部12は、文字入力、音声入力、ポインティング等の任意の方法により、ユーザからの入力を受け付けてよい。入力部12は、キーボード、マウス、タッチセンサ、マイク等を含む。
表示部13は、各種情報を表示する。例えば、表示部13は、ユーザの発言の内容、エージェントの応答の内容等を表示する。表示部13は、液晶ディスプレイパネル、有機EL(Electro−Luminescence)ディスプレイパネル等を含む。
音声出力部14は、各種音源を再生する。例えば、音声出力部14は、応答の内容等を音声出力する。音声出力部14は、スピーカ、ウーファー等を含む。
記憶部15は、各種情報を記憶する。例えば、記憶部15は、端末装置10が備えるCPU(Central Processing Unit)により実行可能なプログラムや、当該プログラムが参照する情報等を記憶する。記憶部15は、ROM(Read Only Memory)、RAM(Random Access Memory)等を含む。
制御部16は、端末装置10が備える各種構成を制御する。例えば、制御部16は、端末装置10が備えるCPUが、記憶部15に記憶されたプログラムを実行することにより実現される。制御部16は、対話処理部161を備える。
対話処理部161は、対話のための入出力処理を制御する。例えば、対話処理部161は、対話のためのユーザインタフェースを提供するための処理を実行する。また、例えば、対話処理部161は、応答制御装置30との間におけるユーザの発言を示す情報や応答を示す情報の送受信を制御する。
次に、応答制御装置30の構成について説明する。
図4は、応答制御装置30の構成を示すブロック図である。
応答制御装置30は、通信部31と、記憶部32と、制御部33と、を備える。
通信部31は、端末装置10等のネットワークNWに接続する他の装置と、各種情報を送受信する。通信部31は、通信用IC等を含む。
記憶部32は、各種情報を記憶する。例えば、記憶部32は、応答制御装置30が備えるCPUにより実行可能なプログラムや、当該プログラムが参照する情報等を記憶する。記憶部32は、ROM、RAM等を含む。記憶部32は、コンシェルジュ構成情報記憶部321と、1以上の対話エージェント構成情報記憶部322−1、322−2、…と、シーン情報記憶部323と、履歴情報記憶部324と、を備える。以下では、特に区別しない限り、対話エージェント構成情報記憶部322−1、322−2、…を、対話エージェント構成情報記憶部322と総称する。
コンシェルジュ構成情報記憶部321は、コンシェルジュ構成情報を記憶する。コンシェルジュ構成情報とは、後述するコンシェルジュ実行部34の構成を示す情報である。例えば、コンシェルジュ実行部34がニューラルネットワークにより実現される場合、コンシェルジュ構成情報は、機械学習の結果、例えば機械学習により変動する活性化関数のパラメータ等の情報を含む。コンシェルジュ構成情報は、対話における応答の生成規則を示す情報の一例である。
対話エージェント構成情報記憶部322は、対話エージェント構成情報を記憶する。対話エージェント構成情報とは、後述する対話エージェント実行部35の構成を示す情報である。例えば、対話エージェント実行部35がニューラルネットワークにより実現される場合、対話エージェント構成情報は、機械学習の結果、例えば機械学習により変動する活性化関数のパラメータ等の情報を含む。対話エージェント構成情報は、対話における応答の生成規則を示す情報の一例である。
なお、コンシェルジュ実行部34や対話エージェント実行部35が人工知能以外で実現される場合、コンシェルジュ情報、対話エージェント構成情報は、例えば、発言と、発言に対する応答と、を一義的に対応付けた情報等であってよい。
シーン情報記憶部323は、シーン情報を記憶する。シーン情報とは、シーンと対話エージェントとを対応付ける情報である。
ここで、シーン情報のデータ構成の例について説明する。
図5は、シーン情報のデータ構成を示す図である。
シーン情報は、シーン識別情報(図5における「シーン」)と、カテゴリ情報(図5における「カテゴリ」)と、サブカテゴリ情報(図5における「サブカテゴリ」)と、対話エージェント識別情報(図5における「対話エージェント」)と、を互いに対応付けた情報である。
シーン識別情報とは、シーンを一意に識別するための情報である。カテゴリ情報とは、シーンの大分類を示す情報である。サブカテゴリ情報とは、シーンの小分類を示す情報である。対話エージェント識別情報とは、対話エージェントを一意に識別するための情報である。シーン情報では、1つのシーン識別情報に対して、1以上の対話エージェント識別情報が対応付けられてよい。
このように、シーン情報では、シーンと対話エージェントとが対応付けられている。従って、端末装置10と応答制御装置30とは、シーン情報を参照することにより、シーンに応じた対話エージェントを選択することができる。
図4に戻り、応答制御装置30の構成について、説明を続ける。
履歴情報記憶部324は、履歴情報を記憶する。履歴情報とは、ユーザと情報処理システム1との間における対話の履歴を示す情報である。履歴情報は、ユーザごとに管理されてよい。
ここで、履歴情報のデータ構成の例について説明する。
図6は、履歴情報のデータ構成を示す図である。
履歴情報は、トピック識別情報(図6における「トピック」)と、シーン識別情報(図6における「シーン」)と、肯定キーワード情報(図6における「肯定キーワード」)と、否定キーワード情報(図6における「否定キーワード」)と、を互いに対応付けた情報である。
トピック識別情報とは、対話を一意に識別するための情報である。肯定キーワード情報とは、対話において、ユーザが肯定的な反応を示したキーワードを示す情報である。否定キーワード情報とは、対話において、ユーザが否定的な反応を示したキーワードを示す情報である。履歴情報では、1つのシーン識別情報に対して、1以上の肯定キーワード情報、否定キーワード情報が対応付けられてよい。
このように、履歴情報は、対話の履歴を示す。つまり、履歴情報を参照することにより、各ユーザにとって望ましい応答の傾向を、履歴情報から把握することができる。従って、端末装置10と応答制御装置30とは、履歴情報を参照することにより、ユーザが受け入れにくい提案を行うことを防いだり、ユーザが受け入れやすい提案を行ったりすることができる。
図4に戻り、応答制御装置30の構成について、説明を続ける。
制御部33は、応答制御装置30が備える各種構成を制御する。例えば、制御部33は、応答制御装置30が備えるCPUが、記憶部32に記憶されたプログラムを実行することにより実現される。制御部33は、対話処理部331と、コンシェルジュ実行部34と、1以上の対話エージェント実行部35−1、35−2、…とを備える。以下では、特に区別しない限り、対話エージェント実行部35−1、35−2、…を、対話エージェント実行部35と総称する。
対話処理部331は、対話のための入出力処理を制御する。対話処理部331は、端末装置10の対話処理部161に対応する応答制御装置30側の構成である。例えば、対話処理部331は、端末装置10との間におけるユーザの発言を示す情報や応答を示す情報の送受信を制御する。
コンシェルジュ実行部34は、コンシェルジュとして機能する。コンシェルジュ実行部34は、コンシェルジュ構成情報に基づいて実現される。コンシェルジュ実行部34は、対話部341と、シーン判定部342と、エージェント選択部343と、学習部344と、履歴管理部345と、を備える。
対話部341は、ユーザの発言に対するコンシェルジュの応答を生成する。
シーン判定部342は、ユーザからの対話開始要求の態様に基づいて対話のシーンを判定する。例えば、シーン判定部342は、ユーザによるシーンの選択に基づいて、対話のシーンを判定してよい。この場合、対話の開始時において、表示部13に、シーンの種類を選択可能に表示しておき、ユーザからシーンの選択を受け付けるようにしてよい。また、例えば、シーン判定部342は、ユーザの発言に基づいてシーンを判定してもよい。この場合、キーワードとシーンとを対応付けた情報を予め用意しておく。そして、シーン判定部342は、ユーザの発言に含まれるキーワードと、シーンとの対応関係から、シーンを判定してよい。また、コンシェルジュ実行部34において、発言とシーンとの対応関係を予め機械学習させておき、当該機械学習の結果とユーザの発言とに基づいてシーンを判定してもよい。このように、シーン判定部342は、任意の方法により、対話のシーンを判定してよい。
エージェント選択部343は、シーンに応じた対話エージェントを選択する。エージェント選択部343は、シーン情報を参照し、シーン判定部342により特定されたシーンに対応付けられている対話エージェントを特定する。換言すると、エージェント選択部343は、シーン判定部342が判定したシーンを用いて、シーン情報を検索して、応答用エージェントの候補を特定する。エージェント選択部343は、特定した対話エージェントの中から、応答用エージェントを選択する。候補からの応答用エージェントの選択は、無作為に行われてもよいし、所定の順序で行われてもよい。これにより、エージェント選択部343は、シーンに応じた対話エージェントを選択することができる。
ここで、エージェント選択部343は、所定数の対話エージェントを選択してもよいし、対話に応じた数の対話エージェントを選択してもよい。例えば、シーン情報において、応答用エージェントの数を、シーンごとに予め設定しておき、シーンに応じた数のエージェントを選択するようにしてよい。また、例えば、対話の開始時や対話中に、ユーザから対話エージェントの数の指定を受け付けるようにしておき、ユーザに指定された数の対話エージェントを選択するようにしてもよい。
また、エージェント選択部343は、履歴情報に基づいて応答用エージェントを選択してもよい。例えば、エージェント選択部343は、対話の履歴から、ユーザが肯定的な発言を行った対話エージェントを、優先的に選択してよい。このように、エージェント選択部343は、履歴情報を参照して、ユーザと対話エージェントとの相性を推定し、ユーザと相性の用対話エージェントを応答用エージェントとして選択してもよい。
また、エージェント選択部343は、1つの対話において、応答用エージェントを、複数回選択してもよい。換言すると、エージェント選択部343は、応答用エージェントを再選択してもよい。つまり、エージェント選択部343は、1つの対話の中のセッションごとに応答用エージェントを選択してよい。例えば、エージェント選択部343は、ユーザの発言において、提示済みの応答とは別の応答が要求された場合には、選択済みの応答用エージェントとは異なる対話エージェントを、新たに応答用エージェントとして再選択する。
また、例えば、エージェント選択部343は、対話が帰結しない場合に、応答用エージェントを再選択してよい。例えば、エージェント選択部343は、対話の開始から所定回数の発言が行われた場合、対話の開始から所定時間経過した場合、又は、提示済みの応答に対してユーザから肯定的な発言が行われない場合に、対話が帰結しないと判定してよい。また、例えば、エージェント選択部343は、対話のシーンが切り替わった場合に、応答用エージェントを再選択してよい。このように、応答用エージェントの再選択を可能とすることにより、情報処理システム1は、さらに多様な応答を提示することができる。
また、エージェント選択部343は、シーン情報において、シーン判定部342が判定したシーンと対応付けられていない対話エージェントを、応答用エージェントとして選択してもよい。つまり、エージェント選択部343は、シーンに対応しない対話エージェントを選択してもよい。例えば、エージェント選択部343は、1つ乃至は2つ程度のシーンに対応しない対話エージェントを、応答用エージェントとして選択する。
このような対話エージェントは、シーンにそぐわない応答を行ってしまう可能性はあるが、その反面、他の応答用エージェントとは、大きく異なる応答を行える可能性がある。このように、エージェント選択部343は、一部の応答用エージェントを、シーンに応じた対話エージェントとし、その他の応答用エージェントを、シーンに関係のない対話エージェントとする。これにより、情報処理システム1は、ユーザに受け入れられやすい応答を提示するとともに、応答を多様化させることができる。
学習部344は、コンシェルジュ実行部34の機能を実現するための機械学習を行う。学習部344は、ユーザの利用開始前に行なわれる機械学習と、対話におけるユーザの評価による機械学習との2種類の機械学習を実行可能である。学習部344による機械学習の結果は、コンシェルジュ構成情報に反映される。なお、以下では、「評価」とは、ユーザにとっての応答の精度や的確さを表す指標であるとして説明する。
学習部344による機械学習に用いられる教師データは、コンシェルジュの機能ごとに用意されてよい。例えば、応答の生成のための機械学習では、教師データは、ユーザの発言と、応答と、評価と、を対応付けたデータである。また、例えば、シーンの判別のための機械学習では、教師データは、ユーザの発言と、シーンと、評価と、を対応付けたデータである。また、例えば、対話エージェントの選択のための機械学習では、教師データは、シーンと、対話エージェントと、評価と、を対応付けたデータである。このような教示データを用いて学習を重ねることにより、コンシェルジュ実行部34は、応答を生成したり、シーンを判別したり、対話エージェントを選択したりすることが可能になる。
履歴管理部345は、履歴情報を管理する。例えば、履歴管理部345は、ユーザの発言に肯定的な文言が含まれている場合、その文言に対応するユーザの発言のキーワード、又は、応答のキーワードを特定し、肯定キーワード情報に登録する。また、例えば、履歴管理部345は、ユーザの発言に否定的な文言が含まれている場合、その文言に対応するユーザの発言のキーワード、又は、応答のキーワードを特定し、否定キーワード情報に登録する。このように、履歴管理部345は、履歴情報のデータ構成に合せて、履歴情報の追記、編集、削除等を行う。
対話エージェント実行部35−1、35−2、…は、それぞれが、異なる対話エージェントとして機能する。対話エージェント実行部35−1、35−2、…は、対話エージェント構成情報記憶部322−1、322−2、…に記憶される対話エージェント構成情報に基づいて実現される。対話エージェント実行部35−1、35−2、…は、対話部351−1、351−2、…と、学習部352−1、352−2、…とを備える。以下では、対話部351−1、351−2、…を、対話部351と総称する。また、以下では、学習部352−1、352−2、…を、学習部352と総称する。
対話部351は、ユーザの発言に対する対話エージェントの応答を生成する。
学習部352は、対話エージェント実行部35の機能を実現するための機械学習を行う。学習部352は、ユーザの利用開始前に行なわれる機械学習と、対話におけるユーザの評価による機械学習との2種類の機械学習を実行可能である。学習部352による機械学習の結果は、対話エージェント構成情報に反映される。
学習部352による機械学習に用いられる教師データは、ユーザの発言と、応答と、評価と、を対応付けたデータである。このような教示データを用いて学習を重ねることにより、対話部351は、ユーザの発言に応じた応答を生成可能になる。
次に、情報処理システム1の動作について説明する。
図7は、情報処理システム1による処理の流れを示すフローチャートである。
(ステップS100)応答制御装置30は、例えばユーザによるシーンの選択に基づいて、シーンを判定する。その後、情報処理システム1は、ステップS102に処理を進める。
(ステップS102)応答制御装置30は、ステップS100におけるシーンの判定結果に基づいて、応答用エージェントを選択する。その後、情報処理システム1は、ステップS104に処理を進める。
(ステップS104)情報処理システム1は、応答用エージェントにより、ユーザと対話を行う。応答制御装置30は、応答用エージェントにより、ユーザの発言に対する応答を生成する。端末装置10は、ユーザの発言と、当該発言に応じて応答用エージェントが生成した応答とを、ユーザに提示する。その後、情報処理システム1は、ステップS106に処理を進める。
(ステップS106)応答制御装置30は、対話結果に基づいてコンシェルジュ及び対話エージェントの機械学習を行う。対話結果とは、提示された応答に対するユーザの反応や対話の総括等であり、応答用エージェントの選択や応答用エージェントの応答に対する評価を示す。その後、情報処理システム1は、図7に示す処理を終了する。
なお、ステップS106における機械学習のためのユーザの評価は、ユーザの発言から特定してもよいし、対話後にユーザに入力させてもよい。評価は、肯定と否定との2値で入力されてもよいし、3段階以上の値で入力されてもよいし、自然文から値に変換されてもよい。また、評価は、対話に基づいて行われてもよい。例えば、対話におけるユーザの発言の数、応答の数、対話の長さ等は、対話が活発であったことを示す。そこで、対話におけるユーザの発言の数、応答の数、対話の長さを、評価の指標としてもよい。
また、評価対象は、全てのエージェントであってもよいし、エージェントの一部であってもよい。例えば、対話全体に対する評価は、対話に参加した全てのエージェントに反映されてよい。また、応答に対する評価は、その応答を行ったエージェントにのみ反映されてよい。また、コンシェルジュの一部の機能に対してのみ評価が反映されてもよい。例えば、コンシェルジュの機能のうち、シーンの判定についてのみ評価が反映されてもよいし、対話エージェントの選択についてのみ評価が反映されてもよい。
なお、図7に示す処理は、図7に示す順序とは異なる順序で行われてもよい。例えば、ステップS100、S102、S106の処理は、ステップS104の処理の一部として行われてもよい。この場合、対話の始めでは、ユーザの発言に対してコンシェルジュが応答し、この対話の中で、ステップS100、S102の処理を行うようにしてよい。また、情報処理システム1は、ステップS106の処理を省略してもよい。
次に、対話における応答の提示態様について説明する。
図8は、情報処理システム1による応答の提示例を示す図である。
図8に示す例では、情報処理システム1は、ユーザの「熱っぽいなぁ…」という発言の「熱っぽい」というキーワードから、シーンが「医療相談」であると判定している。そして、情報処理システム1は、「医療相談」のシーンに対応する4つの対話エージェントa1〜a4を、応答用エージェントとして選択している。各応答用エージェントは、「熱っぽいなぁ…」という発言に対して、それぞれが、独立した応答を生成している。そして、端末装置10は、各応答用エージェントの応答を並べて表示するとともに、各応答に応答用エージェントの属性を対応付けて表示する。これにより、ユーザは、応答用エージェントと、当該応答用エージェントが生成した応答とを、一度に確認することができる。
以上説明したように、本実施形態に係る情報処理システム1(情報処理システムの一例)は、記憶部32(記憶部の一例)と、複数の対話部351(対話部の一例)と、エージェント選択部343(選択部の一例)と、を備える。記憶部32は、対話における発言の生成規則を示す対話エージェント構成情報(規則情報の一例)を記憶する。対話部351は、対話エージェント構成情報に基づいて、それぞれが、ユーザとの対話を行う。エージェント選択部343は、複数の対話部351のうちの一部又は全部を選択して対話を行わせる。
これにより、情報処理システム1は、複数の対話部351のうち、選択された対話部351により発言を生成し、対話を行う。例えば、情報処理システム1は、ユーザの1つの発言に対して、並列に複数の応答を生成する。従って、情報処理システム1は、ユーザの発言に対して多様な応答をすることができる。
また、情報処理システム1は、シーン判定部342(場面判定部の一例)を備える。シーン判定部342は、ユーザからの1セッションの対話開始要求の態様に基づいて、対話の場面を判定する。エージェント選択部343は、シーン判定部342が判定した場面を用いて、場面と1以上の対話部351とを対応付けたシーン情報(場面別対応情報の一例)を検索し、複数の対話部351のうちの一部又は全部を選択する。
これにより、情報処理システム1は、対話の場面に応じて対話部351を選択する。つまり、情報処理システム1は、場面ごとに応答を行う対話部351を切り替える。従って、情報処理システム1は、ユーザの発言に対して、場面に応じた適切な応答を行うことができる。
また、情報処理システム1において、対話部351は、ユーザとの間で過去に行われた対話の履歴を参照して発言を生成可能である。
これにより、情報処理システム1は、過去の対話に基づいて発言を生成する。例えば、情報処理システム1は、対話の履歴から、ユーザが拒否した発言を確認したり、ユーザが好む発言を確認したりすることが可能である。従って、情報処理システム1は、ユーザの発言に対して、ユーザに応じた適切な応答を行うことができる。
(第2の実施形態)
第2の実施形態について説明する。本実施形態では、上述した構成と同様の構成については、同一の符号を付し、説明を援用する。
第2の実施形態に係る情報処理システム1A(不図示)は、情報処理システム1と同様に、複数の対話エージェントによる応答を行うシステムである。ただし、情報処理システム1は、シーンと対話エージェントとの予め定められた対応関係に基づいて応答用エージェントを選択したのに対して、情報処理システム1Aは、シーンごとの対話エージェントの評価に基づいて応答用エージェントを選択する点が異なる。
情報処理システム1Aの構成について説明する。
情報処理システム1Aは、情報処理システム1が備える応答制御装置30に代えて、応答制御装置30Aを備える。
図9は、応答制御装置30Aの構成を示すブロック図である。
応答制御装置30Aの記憶部32は、シーン別順位情報記憶部325Aを備える。また、応答制御装置30Aのコンシェルジュ実行部34は、評価管理部346Aを備える。また、応答制御装置30Aのコンシェルジュ実行部34は、応答制御装置30のコンシェルジュ実行部34が備えるエージェント選択部343に代えて、エージェント選択部343Aを備える。
シーン別順位情報記憶部325Aは、シーン別順位情報を記憶する。シーン別順位情報とは、シーンごとの対話エージェントの評価を示す情報である。シーン別順位情報は、シーンごとに管理される。
ここで、シーン別順位情報のデータ構成の例について説明する。
図10は、シーン別順位情報のデータ構成を示す図である。
シーン別順位情報は、順位情報(図10における「順位」)と、対話エージェント識別情報(図10における「対話エージェント」)と、評価値情報(図10における「評価値」)と、を互いに対応付けた情報である。
順位情報とは、応答用エージェントの選択における対話エージェントの優先順位を示す情報である。評価値情報とは、対話エージェントの評価値を示す情報である。図10に示す例では、評価値が高い程、対話エージェントの優先順位が高くなるように設定されている。
このように、シーン別順位情報では、応答用エージェントの選択における優先順位と、対話エージェントとが、シーンごとに対応付けられている。従って、端末装置10と応答制御装置30とは、シーン別順位情報を参照することにより、各シーンにおいて評価の高い対話エージェントを、応答用エージェントとして選択することができる。
図9に戻り、応答制御装置30Aの構成について、説明を続ける。
評価管理部346Aは、シーン別順位情報を管理する。例えば、評価管理部346Aは、対話に対するユーザの評価に基づいて、シーン別順位情報における応答用エージェントの評価値を増減させてよい。また、例えば、評価管理部346Aは、対話におけるユーザの発言に基づいて、シーン別順位情報における応答用エージェントの評価値を増減させてもよい。
具体的には、応答用エージェントの応答に対してユーザが肯定的な発言を行った場合には、当該応答用エージェントの評価値を所定量増加させてもよい。また、評価管理部346Aは、応答用エージェントの応答に対してユーザが否定的な発言を行った場合には、当該応答用エージェントの評価値を所定量減少させてもよい。そして、評価管理部346Aは、評価値の増減に応じて、優先順位と対話エージェントとの対応関係を更新する。
エージェント選択部343Aは、エージェント選択部343と同様に、対話エージェントの中から応答用エージェントを選択する。ただし、エージェント選択部343Aは、シーン別順位情報を参照して、応答用エージェントを選択可能である点が、エージェント選択部343とは異なる。例えば、エージェント選択部343Aは、シーン別順位情報における優先順位が高い順に、対話エージェントを選択してよい。また、例えば、エージェント選択部343Aは、優先順位に応じて対話エージェントをグループ分けし、各グループから所定数の対話エージェントを、応答用エージェントとして選択してもよい。このように、シーン別順位情報を参照した応答用エージェントの選択方法は、任意であってよい。
以上説明したように、情報処理システム1A(情報処理システムの一例)は、評価管理部346A(評価部の一例)を備える。評価管理部346Aは、複数の対話部351に対する場面ごとの評価を行う。エージェント選択部343A(選択部の一例)は、複数の対話部351に対する場面ごとの評価を示すシーン別順位情報(場面別評価情報の一例)に基づいて、複数の対話部351のうちの一部又は全部を選択する。
これにより、情報処理システム1Aは、場面ごとの評価に基づいて対話部351を選択する。例えば、情報処理システム1Aは、各場面において高く評価された対話部351を優先的に選択する。従って、情報処理システム1Aは、ユーザの発言に対して、場面に応じた適切な応答を行うことができる。
(第3の実施形態)
第3の実施形態について説明する。本実施形態では、上述した構成と同様の構成については、同一の符号を付し、説明を援用する。
第3の実施形態に係る情報処理システム1B(不図示)は、情報処理システム1と同様に、複数の対話エージェントによる応答を行うシステムである。ただし、情報処理システム1は、シーンと対話エージェントとの予め定められた対応関係に基づいて応答用エージェントを選択したのに対して、情報処理システム1Bは、ユーザと対話エージェントとの関係性に基づいて応答用エージェントを選択する点が異なる。
次に、情報処理システム1Bの構成について説明する。
情報処理システム1Bは、情報処理システム1が備える応答制御装置30に代えて、応答制御装置30Bを備える。
図11は、応答制御装置30Bの構成を示すブロック図である。
応答制御装置30Bの記憶部32は、エージェント属性情報記憶部326Bと、ユーザ情報記憶部327Bと、を備える。また、応答制御装置30Bのコンシェルジュ実行部34は、応答制御装置30のコンシェルジュ実行部34が備えるエージェント選択部343に代えて、エージェント選択部343Bを備える。
エージェント属性情報記憶部326Bは、エージェント属性情報を記憶する。エージェント属性情報とは、対話エージェントの属性を示す情報である。
ここで、エージェント属性情報のデータ構成の例について説明する。
図12は、エージェント属性情報のデータ構成を示す図である。
エージェント属性情報は、対話エージェント識別情報(図12における「対話エージェント」)と、対話エージェントカテゴリ情報(図12における「カテゴリ」)と、対話エージェントサブカテゴリ情報(図12における「サブカテゴリ」)と、対話エージェント性格情報(図12における「性格」)と、を互いに対応付けた情報である。
対話エージェントカテゴリ情報とは、対話エージェントの大分類を示す情報である。対話エージェントサブカテゴリ情報とは、対話エージェントの小分類を示す情報である。対話エージェント性格情報とは、対話エージェントの性格であり、いわば発言の傾向を示す情報である。
このように、エージェント属性情報では、対話エージェントと、その属性とが対応付けられている。換言すると、エージェント属性情報は、対話エージェントの個性を示す。従って、端末装置10と応答制御装置30とは、エージェント属性情報を参照することにより、対話エージェントの個性を確認することができる。
図11に戻り、応答制御装置30Bの構成について、説明を続ける。
ユーザ情報記憶部327Bは、ユーザ情報を記憶する。ユーザ情報とは、ユーザの属性を示す情報である。
ここで、ユーザ情報のデータ構成の例について説明する。
図13は、ユーザ情報のデータ構成を示す図である。
ユーザ情報は、ユーザ識別情報(図13における「ユーザ」)と、年齢情報(図13における「年齢」)と、性別情報(図13における「性別」)と、嗜好情報(図13における「嗜好」)と、ユーザ性格情報(図13における「性格」)と、を互いに対応付けた情報である。
ユーザ識別情報とは、ユーザを一意に識別するための情報である。年齢情報とは、ユーザの年齢を示す情報である。性別情報とは、ユーザの性別を示す情報である。嗜好情報とは、ユーザの嗜好を示す情報である。ユーザ性格情報とは、ユーザの性格を示す情報である。
このように、ユーザ情報では、ユーザと、その属性とが対応付けられている。換言すると、ユーザ情報は、ユーザの個性を示す。従って、端末装置10と応答制御装置30とは、ユーザ情報を参照することにより、ユーザの個性を確認することができる。
図11に戻り、応答制御装置30Bの構成について、説明を続ける。
エージェント選択部343Bは、エージェント選択部343と同様に、対話エージェントの中から応答用エージェントを選択する。ただし、エージェント選択部343Bは、エージェント属性情報とユーザ情報とを参照して、応答用エージェントを選択可能である点が、エージェント選択部343とは異なる。
エージェント選択部343Bは、エージェント属性情報と、ユーザ情報との関連性に基づいて応答用エージェントを選択してよい。例えば、エージェント選択部343Bは、エージェント属性情報とユーザ情報とを参照し、ユーザの個性に近い対話エージェントを、応答用エージェントとして選択してよい。これにより、ユーザの個性と応答用エージェントとの個性を整合させられるため、ユーザが受け入れやすい提案を行う応答用エージェントを選択することができる。
また、エージェント選択部343は、エージェント属性情報と、ユーザ情報との多様性に基づいて応答用エージェントを選択してよい。例えば、エージェント選択部343Bは、エージェント属性情報とユーザ情報とを参照し、ユーザとは異なる個性を有する対話エージェントを、応答用エージェントとして選択してもよい。これにより、ユーザが思い付きにくい提案を行う応答用エージェントを選択することができる。
このように、エージェント属性情報とユーザ情報とを参照した応答用エージェントの選択方法は、任意であってよい。
なお、ユーザの個性と対話エージェントの個性との遠近、すなわち属性の対応関係を示す情報は、予め定められていてよい。
また、エージェント選択部343Bは、シーン情報を参照して応答用エージェントを選択してもよいし、シーン情報を参照せずに応答用エージェントを選択してもよい。シーン情報を参照する場合には、エージェント選択部343Bは、シーン情報においてシーンに対応付けられている対話エージェントのうち、ユーザと個性が近い、又は、ユーザと個性が異なる対話エージェントを選択してよい。
以上説明したように、情報処理システム1B(情報処理システムの一例)において、エージェント選択部343B(選択部の一例)は、対話を行うユーザの属性を示すユーザ情報(ユーザ属性情報の一例)と、対話部351の属性を示すエージェント属性情報(対話部属性情報の一例)と、の関連性、多様性に基づいて、複数の対話部351のうちの一部又は全部を選択する。
これにより、情報処理システム1Bは、ユーザの属性と対話部351の属性とに基づいて、対話部351を選択する。つまり、情報処理システム1Bは、ユーザと属性が近い又は異なる対話部351を区別して、対話部351を選択する。換言すると、情報処理システム1Bは、ユーザと対話部351との関係性に基づいて、対話部351を選択する。従って、情報処理システム1Bは、ユーザに応じた適切な応答を行うことができる。
なお、コンシェルジュ実行部34と対話エージェント実行部35とは、それぞれが、応答時に、ユーザ情報を参照してもよい。これにより、コンシェルジュ実行部34と対話エージェント実行部35とは、同じ発言に対する応答であっても、ユーザごとに異なる応答を生成することができる。
また、ユーザ情報(ユーザ属性情報の一例)は、所定のコンシェルジュ実行部34及び対話エージェント実行部35のみ参照可能としてもよい。換言すると、複数の対話部341及び対話部351のうちの一部は、ユーザ情報の参照が制限されてよい。つまり、複数の対話部341及び対話部351のうちの一部の対話部のみが、ユーザ情報を参照して応答を生成可能であってもよい。
特に、対話エージェント実行部35を複数のユーザへの応答に利用する場合は、あるユーザへの応答において、他のユーザへの機械学習の結果が反映される。この機械学習に他のユーザの個人情報が含まれると、生成された応答に個人情報が含まれて、ユーザの個人情報が流出してしまう恐れがある。この点、ユーザ情報の参照を制限することにより、応答に個人情報が含まれることがなくなる。このように、実施形態で説明した任意の情報の利用は、ユーザからの指定や初期設定で制限されてよい。
(第4の実施形態)
第4の実施形態について説明する。本実施形態では、上述した構成と同様の構成については、同一の符号を付し、説明を援用する。
第4の実施形態に係る情報処理システム1C(不図示)は、情報処理システム1と同様に、複数の対話エージェントによる応答を行うシステムである。ただし、情報処理システム1は、シーンと対話エージェントとの予め定められた対応関係に基づいて応答用エージェントを選択したのに対して、情報処理システム1Cは、ユーザごとの対話エージェントの評価に基づいて応答用エージェントを選択する点が異なる。換言すると、情報処理システム1Cは、ユーザと対話エージェントとの親和性の高さに基づいて、応答用エージェントを選択する。
次に、情報処理システム1Cの構成について説明する。
情報処理システム1Cは、情報処理システム1が備える応答制御装置30に代えて、応答制御装置30Cを備える。
図14は、応答制御装置30Cの構成を示すブロック図である。
応答制御装置30Cの記憶部32は、ユーザ別順位情報記憶部328Cを備える。また、応答制御装置30Cのコンシェルジュ実行部34は、評価管理部346Cを備える。また、応答制御装置30Cのコンシェルジュ実行部34は、応答制御装置30のコンシェルジュ実行部34が備えるエージェント選択部343に代えて、エージェント選択部343Cを備える。
ユーザ別順位情報記憶部328Cは、ユーザ別順位情報を記憶する。ユーザ別順位情報とは、ユーザごとの対話エージェントの評価を示す情報である。ユーザ別順位情報は、ユーザごとに管理される。また、ユーザ別順位情報は、ユーザごとに加え、シーンごとに管理されてもよい。ユーザ別順位情報のデータ構成は、例えば、図10を用いて説明したシーン別順情報のデータ構成と同様であってよい。
このようにユーザ別順位情報を構成することで、ユーザ別順位情報により、応答用エージェントの選択における優先順位と対話エージェントとを、ユーザごとに対応付けることができる。従って、端末装置10と応答制御装置30とは、ユーザ別順位情報を参照することにより、各ユーザからの評価が高い対話エージェントを、応答用エージェントとして選択することができる。
評価管理部346Cは、ユーザ別順位情報を管理する。例えば、評価管理部346Cは、対話に対するユーザの評価に基づいて、ユーザ別順位情報における応答用エージェントの評価値を増減させてよい。また、例えば、評価管理部346Cは、対話におけるユーザの発言に基づいて、ユーザ別順位情報における応答用エージェントの評価値を増減させてもよい。具体的には、応答用エージェントの応答に対してユーザが肯定的な発言を行った場合には、当該応答用エージェントの評価値を増加させてもよい。また、評価管理部346Cは、応答用エージェントの応答に対してユーザが否定的な発言を行った場合には、当該応答用エージェントの評価値を減少させてもよい。そして、評価管理部346Cは、評価値の増減に応じて、優先順位と対話エージェントとの対応関係を更新する。
エージェント選択部343Cは、エージェント選択部343と同様に、対話エージェントの中から応答用エージェントを選択する。ただし、エージェント選択部343Cは、ユーザ別順位情報を参照して、応答用エージェントを選択可能である点が、エージェント選択部343とは異なる。例えば、エージェント選択部343Cは、ユーザ別順位情報における優先順位が高い順に、対話エージェントを選択してよい。また、例えば、エージェント選択部343Cは、優先順位に応じて対話エージェントをグループ分けし、各グループから所定数の対話エージェントを、応答用エージェントとして選択してもよい。このように、ユーザ別順位情報を参照した応答用エージェントの選択方法は、任意であってよい。
また、エージェント選択部343Cは、シーン情報を参照して応答用エージェントを選択してもよいし、シーン情報を参照せずに応答用エージェントを選択してもよい。シーン情報を参照する場合には、エージェント選択部343Cは、シーン情報においてシーンに対応付けられている対話エージェントの中から、ユーザ別順位情報における優先順位が高い順に対話エージェントを選択してよい。
以上説明したように、情報処理システム1C(情報処理システムの一例)は、評価管理部346C(評価部の一例)を備える。評価管理部346Cは、複数の対話部351に対するユーザごとの評価を行う。エージェント選択部343C(選択部の一例)は、複数の対話エージェント実行部35(対話部の一例)のユーザごとの評価を示すユーザ別順位情報(ユーザ別評価情報の一例)に基づいて、複数の対話エージェント実行部35のうちの一部又は全部を選択する。
これにより、情報処理システム1Cは、ユーザごとの評価に基づいて対話部351を選択する。例えば、情報処理システム1Aは、発言を行ったユーザにより高く評価された対話部351を優先的に選択する。従って、情報処理システム1Cは、ユーザに応じた適切な応答を行うことができる。
(第5の実施形態)
第5の実施形態について説明する。本実施形態では、上述した構成と同様の構成については、同一の符号を付し、説明を援用する。
第5の実施形態に係る情報処理システム1D(不図示)は、情報処理システム1と同様に、複数の対話エージェントによる応答を行うシステムである。ただし、情報処理システム1では、応答制御装置30にコンシェルジュの機能を持たせたのに対して、情報処理システム1Dでは、ユーザの端末装置側にコンシェルジュの機能を持たせた点が異なる。
情報処理システム1Dの構成について説明する。
情報処理システム1Dは、情報処理システム1が備える端末装置10と応答制御装置30とに代えて、端末装置10Dと応答制御装置30Dを備える。
図15は、端末装置10Dの構成を示すブロック図である。
端末装置10Dの記憶部15は、コンシェルジュ構成情報記憶部151Dと、シーン情報記憶部152Dと、履歴情報記憶部153Dと、を備える。また、端末装置10Dの制御部16は、コンシェルジュ実行部17Dを備える。コンシェルジュ実行部17Dは、対話部171Dと、シーン判定部172Dと、エージェント選択部173Dと、学習部174Dと、履歴管理部175Dと、を備える。
コンシェルジュ構成情報記憶部151Dは、コンシェルジュ構成情報記憶部321と同様の構成である。シーン情報記憶部152Dは、シーン情報記憶部323と同様の構成である。履歴情報記憶部153Dは、履歴情報記憶部324と同様の構成である。コンシェルジュ実行部17Dは、コンシェルジュ実行部34と同様の構成である。
コンシェルジュ実行部17Dは、コンシェルジュ実行部34と同様の構成である。対話部171Dは、対話部341と同様の構成である。シーン判定部172Dは、シーン判定部342と同様の構成である。エージェント選択部173Dは、エージェント選択部343と同様の構成である。学習部174Dは、学習部344と同様の構成である。履歴管理部175Dは、履歴管理部345と同様の構成である。
図16は、応答制御装置30Dの構成を示すブロック図である。
応答制御装置30Dの記憶部32は、応答制御装置30の記憶部32が備えるコンシェルジュ構成情報記憶部321と、シーン情報記憶部323と、を備えない。応答制御装置30Dの制御部33は、コンシェルジュ実行部34を備えない。
以上説明したように、情報処理システム1D(情報処理システムの一例)では、端末装置10Dがコンシェルジュ実行部17Dを備える。このように、上述した各実施形態における任意の構成は、別体の装置に分離して備えられてよいし、組み合わされてもよい。
なお、上記実施形態において、各種情報のデータ構成は、上述したものに限られない。各情報の対応付けは、直接的に行われてもよいし、間接的に行われてもよい。また、処理に必須ではない情報を省略してもよいし、類似の情報を追加して処理を行ってもよい。例えば、ユーザ情報として、ユーザの居所や職業等を含めてもよい。また、例えば、履歴情報は、上記実施形態のように、対話の内容を集約したものでなく、対話そのものを記録した情報であってもよい。
なお、上記実施形態において、応答の提示態様は、上述したものに限られない。例えば、各発言は、時系列に提示されてもよい。また、例えば、応答を行った応答用エージェントを明確にすることなく応答を提示してもよい。
なお、上記各実施形態では、制御部16、制御部33はソフトウェア機能部であるものとしたが、LSI(Large Scale Integration)等のハードウェア機能部であってもよい。
以上説明した少なくともひとつの実施形態によれば、複数の対話部351を持つことにより、多様な応答をすることができる。
また、上述の端末装置10、10D、応答制御装置30、30A〜30Dの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより端末装置10、10D、応答制御装置30、30A〜30Dとしての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
また、上述した端末装置10、10D、応答制御装置30、30A〜30Dの機能の一部または全部を、LSI等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…情報処理システム、10、10D…端末装置、30、30A〜30D…応答制御装置、11…通信部、12…入力部、13…表示部、14…音声出力部、15…記憶部、16…制御部、151D…コンシェルジュ構成情報記憶部、152D…シーン情報記憶部、153D…履歴情報記憶部、161…対話処理部、17D…コンシェルジュ実行部、171D…対話部、172D…シーン判定部、173D…エージェント選択部、174D…学習部、175D…履歴管理部、31…通信部、32…記憶部、33…制御部、321…コンシェルジュ構成情報記憶部、322…対話エージェント構成情報記憶部、323…シーン情報記憶部、324…履歴情報記憶部、325A…シーン別順位情報記憶部、326B…エージェント属性情報記憶部、327B…ユーザ情報記憶部、328C…ユーザ別順位情報記憶部、331…対話処理部、34…コンシェルジュ実行部、341…対話部、342…シーン判定部、343…エージェント選択部、344…学習部、345…履歴管理部、35…対話エージェント実行部、351…対話部、352…学習部

Claims (10)

  1. 対話における発言の生成規則を示す規則情報を記憶する記憶部と、
    前記規則情報に基づいて、それぞれが、ユーザとの対話を行う複数の対話部と、
    前記複数の対話部のうちの一部又は全部を選択して対話を行わせる選択部と、
    を備える情報処理システム。
  2. 前記ユーザからの1セッションの対話開始要求の態様に基づいて、対話の場面を判定する場面判定部、を備え、
    前記選択部は、前記場面判定部が判定した場面を用いて、場面と1以上の前記対話部とを対応付けた場面別対応情報を検索し、前記複数の対話部のうちの一部又は全部を選択する
    請求項1に記載の情報処理システム。
  3. 前記複数の対話部に対する場面ごとの評価を行う評価部、を備え、
    前記選択部は、前記評価部による前記複数の対話部に対する場面ごとの評価を示す場面別評価情報に基づいて、前記複数の対話部のうちの一部又は全部を選択する
    請求項1又は請求項2に記載の情報処理システム。
  4. 前記複数の対話部に対するユーザごとの評価を行う評価部、を備え、
    前記選択部は、前記複数の対話部に対するユーザごとの評価を示すユーザ別評価情報に基づいて、前記複数の対話部のうちの一部又は全部を選択する
    請求項1又は請求項2に記載の情報処理システム。
  5. 前記選択部は、前記対話を行うユーザの属性を示すユーザ属性情報と、前記対話部の属性を示す対話部属性情報との関連性に基づいて、前記複数の対話部のうちの一部又は全部を選択する
    請求項1から請求項3のいずれか一項に記載の情報処理システム。
  6. 前記選択部は、前記対話を行うユーザの属性を示すユーザ属性情報と、前記対話部の属性を示す対話部属性情報との間の多様性に基づいて、前記複数の対話部のうちの一部又は全部を選択する
    請求項1から請求項3のいずれか一項に記載の情報処理システム。
  7. 前記複数の対話部のうちの一部の対話部は、前記ユーザ属性情報の参照が制限される
    請求項5に記載の情報処理システム。
  8. 記憶部に予め記憶された規則情報であって、対話における発言の生成規則を示す規則情報に基づいて、それぞれが、ユーザとの対話を行う複数の対話部と、
    前記複数の対話部のうちの一部又は全部を選択して対話を行わせる選択部と、
    を備える情報処理装置。
  9. 対話における発言の生成規則を示す規則情報を記憶する記憶部と、前記規則情報に基づいて、それぞれが、ユーザとの対話を行う複数の対話部と、を備える情報処理システムにおける情報処理方法であって、
    前記情報処理システムが、前記複数の対話部のうちの一部又は全部を選択して対話を行わせるステップ、
    を含む情報処理方法。
  10. コンピュータを、
    記憶部に予め記憶された規則情報であって、対話における発言の生成規則を示す規則情報に基づいて、それぞれが、ユーザとの対話を行う複数の対話部と、
    前記複数の対話部のうちの一部又は全部を選択して対話を行わせる選択部と、
    として機能させるためのプログラム。
JP2016190399A 2016-09-28 2016-09-28 情報処理システム、情報処理装置、情報処理方法、及びプログラム Pending JP2018054850A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016190399A JP2018054850A (ja) 2016-09-28 2016-09-28 情報処理システム、情報処理装置、情報処理方法、及びプログラム
US16/336,820 US10984794B1 (en) 2016-09-28 2017-09-13 Information processing system, information processing apparatus, information processing method, and recording medium
PCT/JP2017/033061 WO2018061774A1 (ja) 2016-09-28 2017-09-13 情報処理システム、情報処理装置、情報処理方法、及び記憶媒体
CN201780060050.0A CN109791551A (zh) 2016-09-28 2017-09-13 信息处理系统、信息处理装置、信息处理方法、及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016190399A JP2018054850A (ja) 2016-09-28 2016-09-28 情報処理システム、情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2018054850A true JP2018054850A (ja) 2018-04-05

Family

ID=61760638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016190399A Pending JP2018054850A (ja) 2016-09-28 2016-09-28 情報処理システム、情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US10984794B1 (ja)
JP (1) JP2018054850A (ja)
CN (1) CN109791551A (ja)
WO (1) WO2018061774A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020026460A1 (ja) * 2018-08-03 2020-02-06 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2020144618A (ja) * 2019-03-06 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020160848A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 サーバ装置、情報提供システム、情報提供方法、およびプログラム
CN111798843A (zh) * 2019-04-02 2020-10-20 现代自动车株式会社 对话处理装置、具有它的车辆和对话处理方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874201B (zh) * 2018-08-29 2023-06-23 斑马智行网络(香港)有限公司 交互方法、设备、存储介质和操作系统
JP7135887B2 (ja) * 2019-01-24 2022-09-13 トヨタ自動車株式会社 促し発話装置、促し発話方法及びプログラム
JP2020119412A (ja) * 2019-01-28 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN111028837B (zh) * 2019-12-16 2022-10-04 深圳云之家网络有限公司 语音会话方法、语音识别系统及计算机存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056225A (ja) * 1999-08-17 2001-02-27 Equos Research Co Ltd エージェント装置
JP2002268901A (ja) * 2001-03-06 2002-09-20 Sony Corp エージェントシステム、エージェント取り扱い方法及び情報提供装置及びプログラム並びに情報記録媒体
JP2002312377A (ja) * 2001-04-18 2002-10-25 Nec Corp 検索装置、検索用サーバ、検索システム、検索方法およびそのプログラム
JP2008090545A (ja) * 2006-09-29 2008-04-17 Toshiba Corp 音声対話装置および音声対話方法
US20130326375A1 (en) * 2013-08-07 2013-12-05 Liveperson, Inc. Method and System for Engaging Real-Time-Human Interaction into Media Presented Online
JP2014086088A (ja) * 2012-10-19 2014-05-12 Samsung Electronics Co Ltd ディスプレイ装置、ディスプレイ装置制御方法及びディスプレイ装置の制御のための情報処理装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188784A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2002358092A (ja) * 2001-06-01 2002-12-13 Sony Corp 音声合成システム
US7606714B2 (en) 2003-02-11 2009-10-20 Microsoft Corporation Natural language classification within an automated response system
JP2005003926A (ja) * 2003-06-11 2005-01-06 Sony Corp 情報処理装置および方法、並びにプログラム
WO2006040971A1 (ja) * 2004-10-08 2006-04-20 Matsushita Electric Industrial Co., Ltd. 対話支援装置
US7640160B2 (en) * 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US8265939B2 (en) * 2005-08-31 2012-09-11 Nuance Communications, Inc. Hierarchical methods and apparatus for extracting user intent from spoken utterances
KR100755677B1 (ko) * 2005-11-02 2007-09-05 삼성전자주식회사 주제 영역 검출을 이용한 대화체 음성 인식 장치 및 방법
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8073681B2 (en) * 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
JP2009193448A (ja) * 2008-02-15 2009-08-27 Oki Electric Ind Co Ltd 対話システム、方法及びプログラム
JP5128514B2 (ja) * 2009-02-10 2013-01-23 日本電信電話株式会社 多人数思考喚起型対話装置、多人数思考喚起型対話方法、多人数思考喚起型対話プログラム並びにそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20120185275A1 (en) * 2011-01-15 2012-07-19 Masoud Loghmani System and method of automated data analysis for implementing health records personal assistant with automated correlation of medical services to insurance and tax benefits for improved personal health cost management
CN103460281B (zh) * 2011-10-25 2015-12-23 奥林巴斯株式会社 内窥镜手术系统
KR102081925B1 (ko) * 2012-08-29 2020-02-26 엘지전자 주식회사 디스플레이 디바이스 및 스피치 검색 방법
US9230560B2 (en) * 2012-10-08 2016-01-05 Nant Holdings Ip, Llc Smart home automation systems and methods
US20140142948A1 (en) * 2012-11-21 2014-05-22 Somya Rathi Systems and methods for in-vehicle context formation
KR102072826B1 (ko) * 2013-01-31 2020-02-03 삼성전자주식회사 음성 인식 장치 및 응답 정보 제공 방법
US10181322B2 (en) * 2013-12-20 2019-01-15 Microsoft Technology Licensing, Llc Multi-user, multi-domain dialog system
US20160203523A1 (en) * 2014-02-21 2016-07-14 Lithium Technologies, Inc. Domain generic large scale topic expertise and interest mining across multiple online social networks
JP6302707B2 (ja) * 2014-03-06 2018-03-28 クラリオン株式会社 対話履歴管理装置、対話装置および対話履歴管理方法
US9898459B2 (en) * 2014-09-16 2018-02-20 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing
US10431214B2 (en) * 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US10614799B2 (en) * 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
EP3254279B1 (en) * 2015-02-03 2018-11-21 Dolby Laboratories Licensing Corporation Conference word cloud
US9953648B2 (en) * 2015-05-11 2018-04-24 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
WO2018023106A1 (en) * 2016-07-29 2018-02-01 Erik SWART System and method of disambiguating natural language processing requests
US10559309B2 (en) * 2016-12-22 2020-02-11 Google Llc Collaborative voice controlled devices
US10699708B2 (en) * 2018-04-24 2020-06-30 Accenture Global Solutions Limited Robotic agent conversation escalation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056225A (ja) * 1999-08-17 2001-02-27 Equos Research Co Ltd エージェント装置
JP2002268901A (ja) * 2001-03-06 2002-09-20 Sony Corp エージェントシステム、エージェント取り扱い方法及び情報提供装置及びプログラム並びに情報記録媒体
JP2002312377A (ja) * 2001-04-18 2002-10-25 Nec Corp 検索装置、検索用サーバ、検索システム、検索方法およびそのプログラム
JP2008090545A (ja) * 2006-09-29 2008-04-17 Toshiba Corp 音声対話装置および音声対話方法
JP2014086088A (ja) * 2012-10-19 2014-05-12 Samsung Electronics Co Ltd ディスプレイ装置、ディスプレイ装置制御方法及びディスプレイ装置の制御のための情報処理装置
US20130326375A1 (en) * 2013-08-07 2013-12-05 Liveperson, Inc. Method and System for Engaging Real-Time-Human Interaction into Media Presented Online
WO2015021068A2 (en) * 2013-08-07 2015-02-12 Liveperson, Inc. Method and system for engaging real-time-human interaction into media presented online

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020026460A1 (ja) * 2018-08-03 2020-02-06 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2020144618A (ja) * 2019-03-06 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
CN111667823A (zh) * 2019-03-06 2020-09-15 本田技研工业株式会社 智能体装置、智能体装置的控制方法及存储介质
JP7175221B2 (ja) 2019-03-06 2022-11-18 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
CN111667823B (zh) * 2019-03-06 2023-10-20 本田技研工业株式会社 智能体装置、智能体装置的控制方法及存储介质
JP2020160848A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 サーバ装置、情報提供システム、情報提供方法、およびプログラム
JP7245695B2 (ja) 2019-03-27 2023-03-24 本田技研工業株式会社 サーバ装置、情報提供システム、および情報提供方法
CN111798843A (zh) * 2019-04-02 2020-10-20 现代自动车株式会社 对话处理装置、具有它的车辆和对话处理方法

Also Published As

Publication number Publication date
CN109791551A (zh) 2019-05-21
US10984794B1 (en) 2021-04-20
WO2018061774A1 (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
WO2018061774A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記憶媒体
JP6980074B2 (ja) メッセージ分類に基づくメッセージ交換スレッドの自動的拡張
US9971766B2 (en) Conversational agent
US10628474B2 (en) Probabalistic generation of diverse summaries
JP2021144228A (ja) ユーザプログラマブル自動アシスタント
US10617959B2 (en) Method and system for training a chatbot
Eckert The problem with binaries: Coding for gender and sexuality
KR20200054338A (ko) 다이얼로그 시스템들에서의 파라미터 수집 및 자동 다이얼로그 생성
US20180268821A1 (en) Virtual assistant for generating personal suggestions to a user based on intonation analysis of the user
WO2018061776A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記憶媒体
CN109410913B (zh) 一种语音合成方法、装置、设备及存储介质
JP2020536265A (ja) 作成者が提供したコンテンツに基づいて対話型ダイアログアプリケーションを調整すること
JP6450138B2 (ja) 情報処理装置及び発話内容出力方法
Lapierre et al. Testing relationships between smartphone engagement, romantic partner communication, and relationship satisfaction
JP2021096847A (ja) ユーザの発言に基づくマルチメディア推奨
JP2015125198A (ja) 対話シナリオに対する動的対話ノードの挿入行動を制御する対話プログラム、サーバ及び方法
EP4060517A1 (en) System and method for designing artificial intelligence (ai) based hierarchical multi-conversation system
CN111556999B (zh) 通过即时提供实质性回答以提供自然语言对话的方法、计算机装置及计算机可读存储介质
CN111557001B (zh) 提供自然语言对话的方法、计算机装置及计算机可读存储介质
CN109948155B (zh) 一种多意图的选择方法及装置、终端设备
WO2014068293A1 (en) Text analysis
US20230138820A1 (en) Real-time name mispronunciation detection
EP3751403A1 (en) An apparatus and method for generating a personalized virtual user interface
JP2018101249A (ja) ロボット、ロボットシステム、サーバ、情報収集方法及びプログラム
CN108520745B (zh) 设备画像信息的操作方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201005

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210119