JP2022086902A - 質問応答システム、及び質問応答方法 - Google Patents

質問応答システム、及び質問応答方法 Download PDF

Info

Publication number
JP2022086902A
JP2022086902A JP2020199177A JP2020199177A JP2022086902A JP 2022086902 A JP2022086902 A JP 2022086902A JP 2020199177 A JP2020199177 A JP 2020199177A JP 2020199177 A JP2020199177 A JP 2020199177A JP 2022086902 A JP2022086902 A JP 2022086902A
Authority
JP
Japan
Prior art keywords
answer
terminal device
user
respondent
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020199177A
Other languages
English (en)
Other versions
JP6965982B1 (ja
Inventor
平 張
Ping Jang
亮 山田
Akira Yamada
汐里 多田
Shiori Tada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2020199177A priority Critical patent/JP6965982B1/ja
Application granted granted Critical
Publication of JP6965982B1 publication Critical patent/JP6965982B1/ja
Publication of JP2022086902A publication Critical patent/JP2022086902A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザビリティを向上する質問応答システム及び質問応答方法を提供する。【解決手段】質問応答システム1は、利用者によって入力された質問に対する回答を出力する利用者端末装置10と、回答者による回答を利用者端末装置10に送信する回答者端末装置20と、を備える。利用者端末装置10は、質問に対して自動生成された回答である自動回答を回答として出力するとともに、自動回答により有効な回答が得られない場合に、回答者端末装置20と接続させて受信した回答者からの回答を回答として出力する応答処理部191を備える。回答者端末装置20は、表示部23と、回答者端末装置20が利用者端末装置10と接続された場合に、利用者端末装置10における利用者との間の入出力履歴に基づく引継情報を、表示部23に表示させるとともに、回答者からの回答を取得し、取得した回答を利用者端末装置10に送信する回答処理部291と、を備える。【選択図】図1

Description

特許法第30条第2項適用申請有り ウェブサイトの掲載日:令和2年11月18日 ウェブサイトのアドレス:https://www.jreast.co.jp/press/2020/20201118_ho01.pdf
本発明は、質問応答システム、及び質問応答方法に関する。
近年、質問者の質問に対して、回答を出力する質問応答システムが知られている。従来の質問応答システムでは、質問に対して、自動で回答を出力するには限界があり、質問に対する自動回答と、人による回答とを組み合わせたシステムが存在する(例えば、特許文献1を参照)。このような質問応答システムは、例えば、質問に対する回答文が得られない場合に、専門相談員である回答者のスケジュールにより、対応可能な回答者を選択して、最適な専門相談員である回答者に接続を行っていた。
特開2002-230155号公報
しかしながら、上述したような質問応答システムでは、単にその時に対応できる最適な回答者につなぐだけであり、質問者は、接続された回答者に対して、改めて一から質問内容を説明する必要があった。そのため、質問者のユーザビリティがより高い質問応答システムが求められている。
本発明は、上記問題を解決すべくなされたもので、その目的は、ユーザビリティを向上させることができる質問応答システム、及び質問応答方法を提供することにある。
上記問題を解決するために、本発明の一態様は、利用者によって入力された質問に対する回答を出力する利用者端末装置と、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備え、前記利用者端末装置は、前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記自動回答により有効な前記回答が得られない場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理部を備え、前記回答者端末装置は、表示部と、前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理部とを備えることを特徴とする質問応答システムである。
また、本発明の一態様は、利用者によって入力された質問に対する回答を出力する利用者端末装置と、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備え、前記利用者端末装置は、前記利用者の情報を取得する利用者情報取得部と、前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記利用者情報取得部が取得した前記利用者の情報に基づいて、前記自動回答が適切な回答に到達できないと判定された場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理部とを備え、前記回答者端末装置は、表示部と、前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴又は前記利用者の情報に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理部とを備えることを特徴とする質問応答システムである。
また、本発明の一態様は、利用者によって入力された質問に対する回答を出力する利用者端末装置と、表示部を備え、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備える質問応答システムの質問応答方法であって、前記利用者端末装置が、前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記自動回答により有効な前記回答が得られない場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理ステップと、前記回答者端末装置が、前記回答者からの回答を取得する回答取得ステップと、前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理ステップとを含むことを特徴とする質問応答方法である。
また、本発明の一態様は、利用者によって入力された質問に対する回答を出力する利用者端末装置と、表示部を備え、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備える質問応答システムの質問応答方法であって、前記利用者端末装置が、前記利用者の情報を取得する利用者情報取得ステップと、前記利用者端末装置が、前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記利用者情報取得ステップによって取得された前記利用者の情報に基づいて、前記自動回答が適切な回答に到達できないと判定された場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理ステップと、前記回答者端末装置が、前記回答者からの回答を取得する回答取得ステップと、前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴又は前記利用者の情報に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理ステップとを含むことを特徴とする質問応答方法である。
本発明によれば、ユーザビリティを向上させることができる。
本実施形態による質問応答システムの一例を示すブロック図である。 本実施形態における自動回答による会話履歴の一例を示す図である。 本実施形態における利用者端末装置の表示例を説明する図である。 本実施形態における回答者端末装置の表示例を説明する図である。 本実施形態における自動回答による質問応答処理の動作の一例を示す図である。 本実施形態における自動回答から回答者による回答への切り換え処理の動作の一例を示す図である。 本実施形態における回答者による回答処理の動作の一例を示す図である。 本実施形態における自動回答から回答者による回答への切り換え処理の動作の変形例を示す図である。
以下、本発明の一実施形態による質問応答システム、及び質問応答方法について、図面を参照して説明する。
図1は、本実施形態による質問応答システム1の一例を示す概略ブロック図である。
図1に示すように、質問応答システム1は、利用者端末装置10と、回答者端末装置20と、サーバ装置30と、外部連携サーバ40とを備える。利用者端末装置10と、回答者端末装置20と、サーバ装置30と、外部連携サーバ40とは、ネットワークNW1を介して、接続可能である。
なお、本実施形態において、質問応答システム1は、例えば、自治体をはじめ鉄道、流通、小売、ホテルなどのサービス・インフラ業界などの施設に設置され、利用者U1からの質問に対する回答を出力する案内サービスを提供する。質問応答システム1は、機械学習による学習結果に基づくAI(人工知能)などを用いて自動生成した自動回答と、係員などの回答者A1が利用者U1からの質問を受け付けて回答する対人による回答とを併用して、回答を出力する。
サーバ装置30は、ネットワークNW1に接続されたクラウドサーバ装置(例えば、AI(人工知能)サーバ装置)であり、AI機能を利用した質問に対する自動回答の生成や、母国語(例えば、日本語)と外国語(例えば、英語)との間の相互の翻訳を行うなどの処理を実行する。サーバ装置30は、NW(ネットワーク)通信部31と、サーバ記憶部32と、サーバ制御部33とを備える。
NW通信部31は、有線LAN(Local Area Network)などにより、ネットワークNW1に接続し、ネットワークNW1を介した各種通信を行う。NW通信部31は、ネットワークNW1を介して、例えば、利用者端末装置10及び回答者端末装置20と接続し、利用者端末装置10及び回答者端末装置20との間で通信を行う。
サーバ記憶部32は、サーバ装置30が利用する各種情報を記憶する。サーバ記憶部32は、学習結果記憶部321と、履歴情報記憶部322とを備える。
学習結果記憶部321は、機械学習による学習結果を記憶する。学習結果は、例えば、質問に対して、AIを用いて回答を生成(推定)する生成モデル(回答の自動生成モデル)である。
履歴情報記憶部322は、利用者端末装置10における利用者U1の操作履歴や会話履歴などの入出力履歴情報を記憶する。
サーバ制御部33は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、サーバ装置30を統括的に制御する。サーバ制御部33は、音信号変換部331と、翻訳処理部332と、回答生成部333と、機械学習部334とを備える。
音信号変換部331は、音データ(音声信号)をテキストデータに変換する音声認識処理と、テキストデータを、音データに変換する音声合成処理とを実行する。音信号変換部331は、例えば、利用者U1の質問などの入力音データを、テキストデータに変換し、回答のテキストデータ(例えば、自動回答のテキストデータなど)を出力音データに変換する。また、音信号変換部331は、後述する母国語(第1言語)と、外国語(第2言語)との間の翻訳を行う場合において、母国語の音声認識処理及び音声合成処理と、外国語の音声認識処理及び音声合成処理との両方を実行する。
翻訳処理部332は、回答者A1が使用する母国語(第1言語)と、利用者U1が使用する外国語(第2言語)とを相互に翻訳する。例えば、回答者A1の母国語が日本語であり、利用者U1が使用する外国語が英語である場合には、翻訳処理部332は、日本語と英語とを相互に翻訳する。
回答生成部333は、質問に対して、機械学習による学習結果に基づいて、回答である自動回答を自動生成する。回答生成部333は、例えば、利用者端末装置10から受信した質問を、学習結果記憶部321が記憶する学習結果(回答の自動生成モデル)に基づいて、自動回答を生成する。なお、回答生成部333は、回答を自動生成するとともに、当該回答に対するAI判定類似度(確信度)を出力する。AI判定類似度(確信度)は、学習結果に基づく自動生成の処理における自動回答の確からしさを示しており、予め登録されている回答との距離がどの位近いかを示す類似度である。また、AI判定類似度(確信度)は、質問に対する回答に関する評価指標の一例である。
機械学習部334は、機械学習により再学習して、回答の自動生成モデルを再構築する。機械学習部334は、例えば、履歴情報記憶部322が記憶する履歴情報を学習データとして、機械学習を実行し、回答の自動生成モデルを構築する。機械学習部334は、構築した回答の自動生成モデルを学習結果として、学習結果記憶部321に記憶させる。
外部連携サーバ40は、例えば、鉄道の乗り換え案内情報、周辺情報(お店や施設の情報など)、地図情報、動画、等を取得するWebサーバなどであり、ネットワークNW1を介して、回答に関連した各種情報を送信(配信)する。
利用者端末装置10は、例えば、駅などの施設に設置され、質問応答システム1が提供する案内サービスにおいて、利用者U1が使用する端末装置である。利用者端末装置10は、利用者U1によって入力された質問に対する回答を出力する。利用者端末装置10は、NW通信部11と、入力部12と、表示部13と、マイク14と、スピーカ15と、カメラ16と、人感センサ17と、端末記憶部18と、端末制御部19とを備える。
NW通信部11は、例えば、無線LANや有線LANにより、ネットワークNW1に接続し、ネットワークNW1を介して、各種通信を行う。NW通信部11は、例えば、回答者端末装置20、サーバ装置30、及び外部連携サーバ40と、利用者端末装置10との間の通信を行う。
入力部12は、例えば、操作ボタン、タッチパネル、タッチセンサなどの入力装置であり、利用者U1によって入力される操作情報などの各種入力情報を受け付ける。入力部12は、受け付けた入力情報を、端末制御部19に出力する。
表示部13は、例えば、液晶ディスプレイなどの表示装置であり、各種情報を表示する。表示部13は、出力部の一例であり、端末制御部19から出力された各種情報を出力(表示)する。
マイク14(利用者収音部の一例)は、利用者U1の音声を含む音を収音し、音データを出力する。マイク14は、例えば、利用者U1の音声を、入力音データとして収音し、入力音データを端末制御部19に出力する。マイク14は、音声による利用者U1の質問を、入力音データとして出力する。
スピーカ15(利用者放音部の一例)は、各種音データに基づく音を利用者端末装置10の外部に出力する。スピーカ15は、例えば、質問に対する回答を音声で出力する。すなわち、スピーカ15は、端末制御部19が出力する回答に基づく出力音データを音声として出力する。
カメラ16(撮像部の一例)は、利用者端末装置10の周辺を撮像して、利用者U1を含む画像データを出力する。
人感センサ17は、利用者端末装置10を使用する利用者U1を検出する。人感センサ17は、例えば、利用者U1の利用者端末装置10への接近を検出して、当該検出信号を、質問応答システム1の利用開始のトリカ信号として利用する。
なお、本実施形態において、入力部12、マイク14、及びカメラ16は、利用者U1からの質問を受け付けいる入力部の一例であり、表示部13、及びスピーカ15は、質問に対する回答を出力する出力部の一例である。
端末記憶部18は、利用者端末装置10が利用する各種情報を記憶する。端末記憶部18は、操作履歴記憶部181と、会話履歴記憶部182と、画像情報記憶部183とを備える。
操作履歴記憶部181は、利用者U1が利用者端末装置10を操作した操作履歴を記憶する。操作履歴記憶部181は、例えば、入力部12が受け付けた入力情報と、日時情報とを対応付けて操作履歴情報として記憶する。
会話履歴記憶部182は、利用者U1と利用者端末装置10との間の会話の履歴を記憶する。会話履歴記憶部182は、例えば、利用者U1が入力した質問内容、又は利用者端末装置10が出力した回答内容と、日時情報とを対応付けて会話履歴情報として記憶する。なお、利用者端末装置10が出力した回答には、AIを利用して生成した自動回答と、回答者A1によって入力された回答とが含まれる。
画像情報記憶部183は、質問に対する回答を説明する際に利用される各種画像情報を記憶する。画像情報記憶部183は、例えば、地図、乗り換え案内、ショップ情報などの画像データや、当該画像データを利用者U1のスマートフォンなどの携帯端末(不図示)と連携するためのQRコード(登録商標)を記憶する。
端末制御部19は、例えば、CPUなどを含むプロセッサであり、利用者端末装置10を統括的に制御する。端末制御部19は、応答処理部191と、履歴処理部192とを備える。
応答処理部191は、利用者U1の質問に対する回答を出力する処理を実行する。応答処理部191は、人感センサ17(又はカメラ16)により利用者U1を検出した場合に、利用者U1への案内サービスの提供を開始し、入力部12により受け付けた各種操作に応じた処理を実行する。また、応答処理部191は、入力部12又はマイク14により入力された質問を取得し、利用者U1の質問に対して、機械学習による学習結果に基づいて自動生成された回答である自動回答を回答として、出力部(例えば、表示部13又はスピーカ15)に出力する。
応答処理部191は、マイク14から音声により質問が入力された場合に、マイク14から取得した質問の入力音データを、NW通信部11を介して、サーバ装置30に送信し、サーバ装置30の音信号変換部331に質問のテキストデータ(質問の入力テキストデータ)に変換させる。すなわち、応答処理部191は、質問のテキストデータを、NW通信部11を介して、サーバ装置30から取得する。
また、応答処理部191は、利用者U1により、外国語(例えば、英語)による質問が入力された場合には、質問のテキストデータを、NW通信部11を介して、サーバ装置30に送信して、サーバ装置30の翻訳処理部332に、入力された外国語(英語)の質問のテキストデータを、回答者A1の母国語(例えば、日本語)の質問のテキストデータに翻訳させる。応答処理部191は、翻訳された質問のテキストデータを、NW通信部11を介して、サーバ装置30から取得する。
また、応答処理部191は、サーバ装置30の回答生成部333に、質問のテキストデータからAIを用いて自動回答を生成させる。応答処理部191は、質問のテキストデータをNW通信部11を介して、サーバ装置30に送信して、サーバ装置30の回答生成部333に自動回答のテキストデータを生成させる。応答処理部191は、自動回答のテキストデータを、NW通信部11を介して、サーバ装置30から取得する。
応答処理部191は、取得した自動回答のテキストデータを、NW通信部11を介して、サーバ装置30に送信し、サーバ装置30の音信号変換部331に自動回答の出力音データに変換させる。応答処理部191は、自動回答の出力音データを、NW通信部11を介して、サーバ装置30から取得し、当該自動回答の出力音データを、回答の音声としてスピーカ15に出力させる。
なお、利用者U1により、質問が外国語(例えば、英語)による入力された場合には、応答処理部191は、母国語(例えば、日本語)の自動回答のテキストデータを、外国語(例えば、英語)の自動回答テキストデータに翻訳させてから、音信号変換部331に出力音データに変換させる。
また、応答処理部191は、自動回答により有効な回答が得られない場合に、回答者端末装置20と接続させて受信した回答者A1からの回答を回答として出力する。応答処理部191は、例えば、質問に対する回答に関する評価指標に基づいて、自動回答が適切な回答に到達できていないと判定された場合に、回答者端末装置20と接続させる処理を実行する。
応答処理部191は、例えば、以下の場合の(1)~(4)のように、利用者U1が自動回答により満足な回答が得られなかった場合に、自動回答により有効な回答が得られない(自動回答が適切な回答に到達できていない)と判定し、回答者端末装置20と接続させる処理を実行する。
(1)利用者U1が自動回答により複数回に渡るやり取りを行った結果、満足する評価が得られなかった場合
(2)利用者U1の質問に対して自動回答が得られたが、AI判定類似度(確信度)が低い場合
(3)利用者U1の質問に対して自動回答が得られなかった場合(AIによる自動回答が対応していない場合)
(4)利用者U1が自動回答の内容を理解できない(例えば、使用している言葉がわからない)場合
上述した(1)に示す場合は、例えば、利用者U1による回答に対する評価が、“満足していない”等の評価しない内容が入力部12より複数回選択された場合などに対応する。すなわち、上述した評価指標には、利用者U1によって入力された自動回答の評価結果が含まれ、応答処理部191は、評価結果に基づいて、自動回答が適切な回答に到達できていないことを判定する。
また、上述した(2)に示す場合は、例えば、回答生成部333が生成した自動回答に対するAI判定類似度(確信度)が低い回答が、複数回続いた場合などに対応する。すなわち、上述した評価指標には、学習結果に基づく自動生成の処理における自動回答の確からしさを示す確信度(例えば、AI判定類似度)が含まれ、応答処理部191は、確信度が閾値以下である自動回答が所定の回数続いた場合に、自動回答が適切な回答に到達できていないと判定する。
また、上述した(3)に示す場合は、例えば、質問に対する回答が、機械学習により、学習されていない場合などに対応し、このような場合に、応答処理部191は、自動回答により有効な回答が得られないと判定する。
また、上述した(4)に示す場合は、利用者U1が自動回答の内容を理解できていないため、例えば、類似した質問(表現を変えた質問)を複数回行う可能性がある。すなわち、上述した評価指標には、利用者U1によって入力された質問の回数が含まれ、応答処理部191は、質問の回数が、閾値回数に達した場合に、自動回答が適切な回答に到達できていないと判定する。
また、応答処理部191は、例えば、以下の場合の(5)~(7)のように、利用者U1が案内システムの利用方法に迷っている場合に、自動回答が適切な回答に到達できていないと判定し、回答者端末装置20と接続させる処理を実行する。
(5)利用者端末装置10が利用者U1を検出してから、利用者U1による入力(音声による入力又は入力部12への操作)が一定期間行われていない場合
(6)利用者U1の使用開始から、利用者U1による入力(音声による入力又は入力部12への操作)が一定期間行われていない場合
(7)利用者U1が同じ操作を繰り返している場合
上述した(5)及び(6)に示す場合は、例えば、無入力の期間が閾値期間に達した場合に対応する。すなわち、上述した評価指標には、利用者U1による利用者端末装置10の入力がない無入力の期間が含まれ、応答処理部191は、無入力の期間が閾値期間に達した場合に、自動回答が適切な回答に到達できていないと判定する。
また、上述した(7)に示す場合は、利用者U1が同一の操作又は類似の操作を複数回行う場合に対応する。すなわち、上述した評価指標には、利用者U1による同一の操作又は類似操作の操作回数が含まれ、応答処理部191は、当該操作回数が閾値回数に達した場合に、自動回答が適切な回答に到達できていないと判定する。
ここで、図2を参照して、応答処理部191が、自動回答により有効な回答が得られない場合の具体例について説明する。
図2は、本実施形態における自動回答による会話履歴の一例を示す図である。
図2において、「発信者」の“AI”は、自動回答の出力を示し、“システム”は、応答処理部191による出力を示している。また、AI判定類似度は、自動回答の確信度を示している。
図2に示す例では、発信内容が「申し訳ございません。お答えできません。」である部分は、AIによる自動回答が得られなかったことを示している。この場合、応答処理部191は、自動回答により有効な回答が得られていないと判定し、回答者端末装置20への接続を促すメッセージ(例えば、「係員にお繋ぎしますがよろしいでしょうか?」)を表示する。
また、応答処理部191は、回答者端末装置20と接続させる処理として、例えば、係員などの回答者が使用する回答者端末装置20に接続する接続ボタンを点滅させる処理や、表示部13に、回答者端末装置20への接続を促すメッセージ(表示情報)を表示させる処理を実行する。また、応答処理部191は、回答者端末装置20と接続させる処理として、自動で回答者端末装置20に接続するようにしてもよい。
応答処理部191は、利用者端末装置10と回答者端末装置20とが接続された場合に、利用者U1と係員などの回答者A1との間で、直接会話を行い、回答者A1からの回答を出力部(例えば、スピーカ15など)に出力する。
ここで、図3を参照して、上述した一連の応答処理部191の処理における利用者端末装置10の表示例について説明する。
図3は、本実施形態における利用者端末装置10の表示例を説明する図である。
図3(a)は、応答処理部191により自動回答により有効な回答が得られていないと判定された場合の表示例を示している。図3(a)に示すように、応答処理部191は、「係員を呼ぶ」のボタンBT1を点滅させるとともに、回答者端末装置20への接続を促すメッセージを表示させる。このように、応答処理部191は、自動回答により有効な回答が得られない場合に、回答者端末装置20と接続させる処理として、回答者端末装置20との接続の開始を利用者U1に促す表示情報を表示部13に表示させる。
また、図3(b)は、利用者U1により、ボタンBT1が押下された場合に表示する確認画面の表示例である。図3(b)に示すように、ボタンBT1が押下れると、応答処理部191は、「発信する」と表示したボタンBT2を表示部13に表示させて、回答者端末装置20への接続の確認を促す。
また、図3(c)は、利用者端末装置10の回答者端末装置20への接続後の表示例を示している。図3(c)に示すように、応答処理部191は、回答者端末装置20と接続した後に、例えば、係員などの回答者A1の画像SG1、カメラ16が撮像した利用者U1の画像SG2、地図などの回答を説明するための画像SG3、及び二次元コードの画像SG4などを表示させる。ここで、画像SG1、画像SG3、及び画像SG4は、ネットワークNW1を介して、回答者端末装置20から受信した画像であり、画像SG2は、カメラ16によって撮像された画像データである。なお、画像SG1~画像SG4の画像データは、例えば、画像情報記憶部183に記憶されているものとする。
また、画像SG4の二次元コードは、例えば、QRコード(登録商標)であり、画像SG3などの画像データを利用者U1が所有する携帯端末(不図示)で取得して表示可能にする情報を含んでいる。画像SG4の二次元コードは、例えば、画像SG3などの画像データを表示するためのURL(Uniform Resource Locator)などを含んでいる。このように、応答処理部191は、画像データを利用者U1が所有する携帯端末で取得して表示可能にする二次元コードを、表示部13に表示させる。
図1の説明に戻り、履歴処理部192は、入力部12による操作履歴情報を、操作履歴記憶部181に記憶させるとともに、応答処理部191による会話履歴情報を、会話履歴記憶部182に記憶させる。また、履歴処理部192は、応答処理部191により、回答者端末装置20に接続された場合に、操作履歴記憶部181が記憶する操作履歴情報、及び会話履歴記憶部182が記憶する会話履歴情報を、引継情報として、回答者端末装置20に送信する。
また、履歴処理部192は、定期的に、又は利用者U1が利用を終了する際に、操作履歴情報及び会話履歴情報を、サーバ装置30に送信して、履歴情報記憶部に記憶させる。
回答者端末装置20は、係員などの回答者A1が、利用者U1の質問に対する回答を入力するための端末装置であり、回答者A1による回答を利用者端末装置10に送信する。回答者端末装置20は、例えば、鉄道会社などで用いられる場合には、駅員室などに設置され、この場合、駅員が回答者A1となる。
回答者端末装置20は、NW通信部21と、入力部22と、表示部23と、マイク24と、スピーカ25と、カメラ26と、警告灯27と、端末記憶部28と、端末制御部29とを備える。
NW通信部21は、例えば、無線LANや有線LANにより、ネットワークNW1に接続し、ネットワークNW1を介して、各種通信を行う。NW通信部21は、例えば、利用者端末装置10、サーバ装置30、及び外部連携サーバ40と、回答者端末装置20の間の通信を行う。
入力部22は、例えば、操作ボタン、タッチパネル、タッチセンサ、キーボード、マウスなどの入力装置であり、回答者A1によって入力される各種入力情報を受け付ける。入力部22は、受け付けた入力情報を、端末制御部29に出力する。
表示部23は、例えば、液晶ディスプレイなどの表示装置であり、各種情報を表示する。
マイク24(回答者収音部の一例)は、回答者A1の音声を含む音を収音し、音データを出力する。マイク24は、例えば、回答者A1の音声を、音データとして収音し、音データを端末制御部29に出力する。マイク24は、音声による回答者A1の回答を、出力音データとして出力する。
スピーカ25(回答者放音部の一例)は、各種音データに基づく音を回答者端末装置20の外部に出力する。スピーカ25は、例えば、利用者U1からの質問を音声で出力する。すなわち、スピーカ25は、端末制御部29が出力する質問の入力音データを音声として出力する。
カメラ26(撮像部の一例)は、回答者端末装置20の周辺を撮像して、回答者A1を含む画像データを出力する。
警告灯27は、例えば、パトライト(登録商標)であり、利用者端末装置10からの接続要求があることを点灯により回答者A1に認識させる。
端末記憶部28は、回答者端末装置20が利用する各種情報を記憶する。端末記憶部28は、引継情報記憶部281と、回答候補記憶部282と、画像情報記憶部283とを備える。
引継情報記憶部281は、利用者端末装置10と回答者端末装置20とを接続して、利用者U1と回答者A1との直接会話により回答する際の引継情報を記憶する。引継情報記憶部281は、利用者端末装置10と回答者端末装置20とが接続されるまでの、利用者U1の利用者端末装置10に対する操作履歴情報や会話履歴情報を記憶する。
回答候補記憶部282は、サーバ装置30の回答生成部333が生成した回答及びAI判定類似度などを記憶する。
画像情報記憶部283は、質問に対する回答を説明する際に利用される各種画像情報を記憶する。画像情報記憶部283は、例えば、地図、乗り換え案内、ショップ情報などの画像データや、当該画像データを利用者U1のスマートフォンなどの携帯端末(不図示)と連携するためのQRコード(登録商標)を記憶する。なお、これらの画像データは、例えば、外部連携サーバ40から取得される。
端末制御部29は、例えば、CPUなどを含むプロセッサであり、回答者端末装置20を統括的に制御する。端末制御部29は、回答処理部291を備える。
回答処理部291は、利用者端末装置10と接続された場合に、利用者端末装置10における利用者U1との間の入出力履歴に基づく引継情報を、表示部23に表示させるとともに、回答者A1からの回答を取得し、取得した回答を利用者端末装置10に送信する。
ここで、入出力履歴には、利用者U1による利用者端末装置10の操作履歴が含まれる。この場合、回答処理部291は、利用者端末装置10の操作履歴に基づく引継情報を、表示部23に表示させる。
また、入出力履歴には、質問及び自動回答の履歴情報が含まれる。この場合、回答処理部291は、質問及び自動回答の履歴情報に基づく引継情報を、表示部23に表示させる。より具体的に、入出力履歴には、質問及び自動回答の履歴情報として、マイク14が収音した入力音データ及びスピーカ15が出力した出力音データに基づく利用者と利用者端末装置10との間の会話履歴が含まれる。この場合、回答処理部291は、会話履歴に基づいて、利用者U1と利用者端末装置10との間の会話の内容を、引継情報として、表示部23に表示させる。
このように、入出力履歴には、利用者U1による利用者端末装置10の操作履歴や、上述した質問及び自動回答の履歴情報(例えば、利用者端末装置10における会話履歴まど)が含まれる。なお、回答処理部291は、利用者端末装置10と接続された際に、履歴情報(例えば、操作履歴情報、及び会話履歴情報)を、利用者端末装置10から取得する。
また、回答処理部291は、引継情報の他に、例えば、利用者U1の画像データ、回答者A1の画像データ、外部連携サーバ40から取得した回答を説明するための画像データなどを表示部23に表示させる。
ここで、図4を参照して、回答処理部291が、利用者端末装置10と接続した際の表示例について説明する。
図4は、本実施形態における回答者端末装置20の表示例を説明する図である。
図4(a)は、利用者端末装置10から接続要求を受信した場合の表示例を示している。回答処理部291は、NW通信部21を介して、利用者端末装置10から接続要求を受信した場合に、警告灯27を点灯させるとともに、図4(a)に示すような表示画面を表示部23に表示させる。
また、図4(b)は、上述した図4(a)の表示画面において、回答者A1によって、「OK」のボタンBT3が押下された場合に、表示する係員などの回答者A1用の操作画面の表示例を示している。回答処理部291は、図4(b)に示すように、接続操作情報の画像SG4、利用者U1の画像SG5、カメラ26が撮像した回答者A1の画像SG6、引継情報の画像SG7、及び地図などの回答を説明するための画像SG8を表示部23に表示させる。
なお、画像SG8は、例えば、回答者A1が情報を追加可能な画像データであって、回答の説明に使用する画像データである。例えば、画像SG8が地図であり、回答者A1が目的地への道順を説明する場合には、道順を示す線や矢印などの情報を回答者A1が情報を追加可能である。すなわち、回答処理部291は、回答者A1が情報を追加可能な画像データであって、回答の説明に使用する画像データを表示部23に表示させるとともに、当該画像データを利用者端末装置10に送信する。
また、回答処理部291は、NW通信部21を介して、例えば、利用者U1による質問の入力音データを受信し、受信した質問の入力音データを、サーバ装置30の音信号変換部331に、質問のテキストデータに変換せて、回答生成部333に、質問に対する回答候補を(回答候補のテキストデータ)及び各候補のAI判定類似度を生成させる。回答処理部291は、回答生成部333によって生成された回答候補及びAI判定類似度を、回答の参考情報として、表示部23に表示させる。
また、回答処理部291は、NW通信部21を介して、利用者端末装置10から受信した利用者U1による質問の入力音データを、スピーカ25から出力させるとともに、マイク24が収音した回答者A1の音声データである回答の音データを、NW通信部21を介して、利用者端末装置10に送信し、利用者端末装置10のスピーカ15から、回答の出力音データとして出力させる。
なお、利用者U1が外国人である場合には、上述した応答処理部191の自動回答の場合と同様に、サーバ装置30の音信号変換部331及び翻訳処理部332を用いて、翻訳処理を実行する。
次に、図面を参照して、本実施形態による質問応答システム1の動作について説明する。
図5は、実施形態における自動回答による質問応答処理の動作の一例を示す図である。
図5に示すように、質問応答システム1の利用者端末装置10は、まず、利用者が来たか否かを判定する(ステップS101)。利用者端末装置10の応答処理部191は、例えば、人感センサ17又はカメラ16の検出により、利用者U1が利用者端末装置10の周辺に来たか否かを判定する。応答処理部191は、利用者が来た(利用者U1が検出された)場合(ステップS101:YES)に、処理をステップS102に進める。また、応答処理部191は、利用者が来ていない(利用者U1が検出されていない)場合(ステップS101:NO)に、処理をステップS101に戻す。
ステップS102において、応答処理部191は、操作及び質問を受け付ける。応答処理部191は、例えば、入力部12による操作の受け付けや、マイク14による利用者U1からの質問の受け付けを開始する。
次に、応答処理部191は、受け付けた入力音データ(質問)を、サーバ装置30に送信する(ステップS103)。
次に、サーバ装置30は、入力音データ(質問)を、入力テキストデータに変換する(ステップS104)。サーバ装置30の音信号変換部331は、質問の入力音データを、質問のテキストデータに変換する。
次に、サーバ装置30は、音信号変換部331が変換した入力テキストデータ(質問)を、利用者端末装置10に送信する(ステップS105)。
次に、利用者端末装置10の応答処理部191は、テキスト変換した入力テキストデータを、質問データとして、サーバ装置30に送信する(ステップS106)。
次に、サーバ装置30は、自動回答を生成する(ステップS107)。サーバ装置30の回答生成部333は、利用者端末装置10から受信した質問データに対する自動回答データを生成する。なお、回答生成部333は、自動回答データを生成する際に、当該自動回答のAI判定類似度を生成する。
次に、サーバ装置30は、回答生成部333が生成した自動回答データを、利用者端末装置10に送信する(ステップS108)。なお、サーバ装置30は、自動回答データとともに、AI判定類似度を、利用者端末装置10に送信する。
次に、利用者端末装置10の応答処理部191は、自動回答データを出力テキストデータ(回答)として、サーバ装置30に送信する(ステップS109)。
次に、サーバ装置30の音信号変換部331は、出力テキストデータ(回答)を音声合成して、出力音データに変換する(ステップS110)。
次に、サーバ装置30は、音信号変換部331が変換した出力音データ(回答)を、利用者端末装置10に送信する(ステップS111)。
次に、利用者端末装置10の応答処理部191は、受信した出力音データを出力する(ステップS112)。応答処理部191は、出力音データを、回答の音声として、スピーカ15に出力させる。
次に、利用者端末装置10の履歴処理部192は、履歴情報をサーバ装置30に送信する(ステップS113)。履歴処理部192は、一連の操作履歴情報及び会話履歴情報を、サーバ装置30に送信して記憶させる。
次に、サーバ装置30は、受信した履歴情報を履歴情報記憶部322に記憶させる(ステップS114)。
なお、質問応答システム1は、自動回答による質問応答処理の場合に、ステップS102からステップS114までの処理を繰り返す。
また、翻訳処理が必要な場合には、ステップS107及びステップS110の処理において、翻訳処理部332による翻訳処理が追加される。
次に、図6を参照して、本実施形態による質問応答システム1の自動回答から回答者A1による回答への切り換え処理について説明する。
図6は、本実施形態における自動回答から回答者A1による回答への切り換え処理の動作の一例を示す図である。
図6に示すように、利用者端末装置10の応答処理部191は、まず、自動回答が有効な回答であるか否かを判定する(ステップS201)。応答処理部191は、例えば、上述した(3)に示す場合のように、回答生成部333により回答が得られるか否かにより、自動回答が有効な回答であるか否かを判定する。応答処理部191は、自動回答が有効な回答である場合(ステップS201:YES)に、処理をステップS201に戻す。また、応答処理部191は、自動回答が有効な回答でない場合(ステップS201:NO)に、処理をステップS202に進める。
ステップS202において、応答処理部191は、係員(回答者A1に接続するように勧める表示を表示部13に行う。例えば、応答処理部191は、図3(a)に示すように、「係員を呼ぶ」のボタンBT1を点滅させるとともに、回答者端末装置20への接続を促すメッセージを表示部13に表示させる。
次に、利用者U1によって、「係員を呼ぶ」のボタンBT1が押下されると、応答処理部191は、接続の確認画面を表示部13に表示する(ステップS203)。応答処理部191は、例えば、図3(b)に示すような表示画面を表示部13に表示させる。これにより、利用者端末装置10は、利用者U1に接続の確認を行うため、誤操作により誤って回答者端末装置20に接続すること低減することができる。
次に、利用者U1によって、「発信します」のボタンBT2が押下されると、応答処理部191は、接続要求を回答者端末装置20に送信する(ステップS204)。なお、応答処理部191は、接続要求とともに、操作履歴情報及び会話履歴情報を回答者端末装置20に送信してもよい。
次に、接続要求を受信すると、回答者端末装置20の回答処理部291は、警告灯27を点灯し、利用者端末装置10から接続要求があることを表示部23に表示する(ステップS205)。回答処理部291は、例えば、図4(a)に示すような表示画面を表示部23に表示させる。
次に、回答者A1によって、「OK」ボタンBT3が押下されると、回答処理部291は、係員用(回答者A1用)の操作画面に、引継情報を表示する(ステップS206)。回答処理部291は、例えば、図4(b)に示すような引継情報を含む操作画面を表示部23に表示させる。なお、回答処理部291は、引継情報として、例えば、図2に示すような、操作履歴及び会話履歴を表示部23に表示させる。
次に、回答処理部291は、接続許可を、利用者端末装置10に送信する(ステップS207)。
次に、応答処理部191は、接続許可に応じて、係員接続画面を表示部13に表示する(ステップS208)。応答処理部191は、例えば、図3(c)に示すような係員接続画面を表示部13に表示させる。
次に、応答処理部191及び回答処理部291は、利用者端末装置10と、回答者端末装置20との間で、会話による質問・回答処理を実行する(ステップS209)。すなわち、応答処理部191が、利用者U1による質問を回答者端末装置20に送信し、回答処理部291が、回答者A1による回答を利用者端末装置10に送信し、応答処理部191が受信した回答者A1による回答を利用者U1に向けて出力する。
なお、上述した図6に示す一例において、利用者端末装置10が、ステップS202及びステップS203の処理を実行する例を説明したが、ステップS202及びステップS203の処理を実行せずに、自動的に、回答者端末装置20に接続するようにしてもよい。
次に、図7を参照して、上述した図6のステップS209の処理の一例について説明する。
図7は、本実施形態における回答者A1による回答処理の動作の一例を示す図である。なお、ここでは、利用者U1が外国人であり、回答者A1の母国語(自国語)が日本語である場合の一例について説明する。
図7に示すように、まず、利用者端末装置10は、利用者U1の入力音データを受け付ける(ステップS301)。利用者端末装置10の応答処理部191は、利用者U1の質問を、外国語の入力音データとして、マイク14により取得する。
次に、応答処理部191は、取得した質問の入力音データ(外国語)を、NW通信部11を介して、回答者端末装置20に送信する(ステップS302)。
次に、回答者端末装置20の回答処理部291は、利用者端末装置10から受信した質問の入力音データ(外国語)を、NW通信部21を介して、サーバ装置30に送信する(ステップS303)。
次に、サーバ装置30は、受信した質問の入力音データ(外国語)に対して、テキスト変換及び翻訳処理を実行する(ステップS304)。すなわち、サーバ装置30の音信号変換部331が、質問の入力音データ(外国語)を入力テキストデータ(外国語)に変換し、サーバ装置30の翻訳処理部332が、入力テキストデータ(外国語)を入力テキストデータ(日本語)に変換する。
次に、サーバ装置30は、入力テキストデータ(日本語)を、NW通信部31を介して、回答者端末装置20に送信する(ステップS305)。
次に、回答処理部291は、入力テキストデータ(日本語)を、NW通信部21を介して、サーバ装置30に送信する(ステップS306)。
次に、サーバ装置30は、受信した入力テキストデータ(日本語)を音声合成する(ステップS307)。サーバ装置30の音信号変換部331は、入力テキストデータ(日本語)を入力音データ(日本語)に変換する。
次に、サーバ装置30は、変換した入力音データ(日本語)を、NW通信部31を介して、回答者端末装置20に送信する(ステップS308)。
次に、回答者端末装置20は、受信した入力音データ(日本語)を出力する(ステップS309)。すなわち、回答者端末装置20の回答処理部291は、受信した入力音データ(日本語)を質問の音声として、スピーカ25に出力させる。
また、一方で、サーバ装置30の回答生成部333は、入力テキストデータ(日本語)から自動回答を生成する(ステップS310)。なお、回答生成部333は、複数の回答の候補を生成するとともに、各回答候補のAI判定類似度を生成する。
次に、サーバ装置30は、回答の候補(テキスト)を、NW通信部31を介して、回答者端末装置20に送信する(ステップS311)。なお、サーバ装置30は、回答生成部333が生成した複数の回答の候補及びAI判定類似度を回答者端末装置20に送信する。
回答者端末装置20は、受信した回答の候補を表示部23に表示する(ステップS312)。回答者端末装置20の回答処理部291は、複数の回答の候補及びAI判定類似度を、AI判定類似度が高いものを優先して、表示部23に表示させる。
次に、回答者端末装置20は、回答者A1の回答音データを受け付ける(ステップS313)。すなわち、回答処理部291は、マイク24により、回答者A1の回答音データ(日本語)を取得する。
次に、回答処理部291は、回答音データ(日本語)を、NW通信部21を介して、サーバ装置30に送信する(ステップS314)。
次に、サーバ装置30は、受信した回答音データ(日本語)に対して、テキスト変換及び翻訳処理を実行する(ステップS315)。すなわち、サーバ装置30の音信号変換部331が、回答音データ(日本語)を回答テキストデータ(日本語)に変換し、サーバ装置30の翻訳処理部332が、回答テキストデータ(日本語)を回答テキストデータ(外国語)に変換する。
次に、サーバ装置30は、回答テキストデータ(外国語)を、NW通信部31を介して、回答者端末装置20に送信する(ステップS316)。
次に、回答処理部291は、回答テキストデータ(外国語)を、NW通信部21を介して、サーバ装置30に送信する(ステップS317)。
次に、サーバ装置30は、受信した回答テキストデータ(外国語)を音声合成する(ステップS318)。サーバ装置30の音信号変換部331は、回答テキストデータ(外国語)を回答音データ(外国語)に変換する。
次に、サーバ装置30は、変換した回答音データ(外国語)を、NW通信部31を介して、回答者端末装置20に送信する(ステップS319)。
次に、回答者端末装置20の回答処理部291は、受信した回答音データ(外国語)を、NW通信部21を介して、利用者端末装置10に送信する(ステップS320)。
次に、利用者端末装置10は、受信した回答音データ(外国語)を出力する(ステップS321)。すなわち、利用者端末装置10の応答処理部191は、受信した回答音データ(外国語)を回答の音声として、スピーカ15に出力させる。
また、サーバ装置30は、履歴情報を記憶する(ステップS322)。サーバ装置30のサーバ制御部33は、例えば、質問の入力テキストデータ(日本語)及び回答テキストデータ(日本語)と、日時情報とを対応付けて、履歴情報記憶部322に記憶させる。
なお、図7に示す例で、利用者U1が日本人である場合には、回答処理部291は、利用者端末装置10から受信した質問の入力音データを、質問の音声として、スピーカ25に出力させ、マイク24により取得した回答音データを、利用者端末装置10に送信する。また、この場合、回答処理部291は、サーバ装置30に、質問の入力音データを送信して、質問の入力音データをテキスト変換するとともに、回答候補をサーバ装置30から取得する。
以上説明したように、本実施形態による質問応答システム1は、利用者U1によって入力された質問に対する回答を出力する利用者端末装置10と、回答者A1による回答を利用者端末装置10に送信する回答者端末装置20とを備える。利用者端末装置10は、応答処理部191を備える。応答処理部191は、質問に対して自動生成された回答である自動回答を回答として出力するとともに、自動回答により有効な回答が得られない場合に、回答者端末装置20と接続させて受信した回答者A1からの回答を回答として出力する。また、回答者端末装置20は、表示部23と、回答処理部291とを備える。回答処理部291は、回答者端末装置20が、利用者端末装置10と接続された場合に、利用者端末装置10における利用者U1との間の入出力履歴に基づく引継情報を、表示部23に表示させるとともに、回答者A1からの回答を取得し、取得した回答を利用者端末装置10に送信する。
これにより、本実施形態による質問応答システム1は、自動回答から回答者端末装置20に接続した回答者A1による回答に切り替える際に、利用者端末装置10における利用者U1との間の入出力履歴に基づく引継情報を表示するため、利用者U1が、質問の経緯を最初から説明する必要がなく、速やかに回答者A1が対応することができる。よって、本実施形態による質問応答システム1は、利用者U1及び回答者A1の双方においてユーザビリティを向上させることができる。
また、本実施形態では、入出力履歴には、利用者U1による利用者端末装置10の操作履歴が含まれ、回答処理部291は、利用者端末装置10の操作履歴に基づく引継情報を、表示部23に表示させる。
これにより、本実施形態による質問応答システム1は、回答者A1が利用者U1の操作履歴を把握した上で、利用者U1の質問に対して対応できるため、ユーザビリティをさらに向上させることができる。
また、本実施形態では、入出力履歴には、質問及び自動回答の履歴情報が含まれ、回答処理部291は、質問及び自動回答の履歴情報に基づく引継情報を、表示部23に表示させる。
これにより、本実施形態による質問応答システム1は、回答者A1が質問及び自動回答の履歴情報を把握した上で、利用者U1の質問に対して対応できるため、ユーザビリティをさらに向上させることができる。
また、本実施形態では、利用者端末装置10は、利用者U1の音声を入力音データとして収音するマイク14(利用者収音部)と、回答に基づく出力音データを音声として出力するスピーカ15(利用者放音部)とを備える。出力履歴には、質問及び自動回答の履歴情報として、マイク14が収音した入力音データ及びスピーカ15が出力した出力音データに基づく利用者と利用者端末装置10との間の会話履歴が含まれる。回答処理部291は、会話履歴に基づいて、利用者U1と利用者端末装置10との間の会話の内容を、引継情報として、表示部23に表示させる。
これにより、本実施形態による質問応答システム1は、回答者A1が利用者U1と利用者端末装置10との間の会話の内容を把握した上で、利用者U1の質問に対して対応できるため、ユーザビリティをさらに向上させることができる。
また、本実施形態による質問応答システム1は、マイク14が収音した入力音データを入力テキストデータに変換するとともに、自動回答を含む出力テキストデータを出力音データに変換する音信号変換部331を備える。応答処理部191は、音信号変換部331から質問の入力テキストデータを取得し、音信号変換部331により自動回答を出力音データに変換させる。
これにより、本実施形態による質問応答システム1は、音声入力により質問し、音声出力により回答を得られるため、利用者U1のユーザビリティをさらに向上させることができる。
本実施形態では、回答者端末装置20は、回答者A1の音声を音データとして収音するマイク24(回答者収音部)と、マイク14が収音した入力音データに基づく音を出力するスピーカ25(回答者放音部)とを備える。回答処理部291は、利用者端末装置10から受信した入力音データに基づく音をスピーカ25に出力させるとともに、マイク24が収音した音データを、利用者端末装置10に送信する。利用者端末装置10は、回答者端末装置20から受信した音データを出力音データとして、スピーカ15(利用者放音部)に出力させる。
これにより、本実施形態による質問応答システム1は、利用者U1と回答者A1との間で、音声による会話をすることができるため、ユーザビリティをさらに向上させることができる。
本実施形態では、回答処理部291は、質問に対して、機械学習による学習結果に基づいて自動生成された回答候補を、表示部23に表示させる。
これにより、本実施形態による質問応答システム1は、回答者A1が機械学習による回答候補を参照しながら、利用者U1の質問に対応できるため、より適切な回答を出力することができるとともに、回答者A1のユーザビリティをさらに向上させることができる。
本実施形態では、利用者端末装置10は、利用者U1が視認可能な表示部である表示部13(利用者表示部)を備える。回答処理部291は、回答者A1が情報を追加可能な画像データであって、回答の説明に使用する画像データを表示部23(回答者表示部)に表示させるとともに、当該画像データを利用者端末装置10に送信する。応答処理部191は、画像データを表示部13に表示させる。
これにより、本実施形態による質問応答システム1は、例えば、地図や施設の構内図などの画像を、利用者端末装置10と回答者端末装置20との双方に表示させながら、質問に対する回答の説明ができるため、ユーザビリティをさらに向上させることができる。
本実施形態では、応答処理部191は、画像データを利用者U1が所有する携帯端末(例えば、スマートフォンやタブレット端末など)で取得して表示可能にする二次元コードを、表示部13に表示させる。
これにより、本実施形態による質問応答システム1は、利用者U1が所有する携帯端末(例えば、スマートフォンやタブレット端末など)に、回答の説明に使用した画像データを取り込んで表示するようにできるため、利用者U1が利用者端末装置10の設置場所を離れた後も、回答の説明に使用した画像を確認することができる。
また、本実施形態による質問応答システム1は、少なくとも回答者A1が使用する母国語(第1言語、例えば、日本語)と、利用者U1が使用する外国語(第2言語、例えば、英語)とを相互に翻訳する翻訳処理部332を備える。翻訳処理部332は、利用者端末装置10に入力された外国語(英語)の質問を、母国語(日本語)の質問に翻訳するとともに、回答者端末装置20に入力された母国語(日本語)の回答を、外国語(英語)の回答に翻訳する。
これにより、本実施形態による質問応答システム1は、利用者U1が外国人である場合に対応することができ、利用者U1のユーザビリティをさらに向上させることができる。
また、本実施形態による質問応答システム1は、機械学習により再学習して、回答の自動生成モデルを再構築する機械学習部334を備える。
これにより、本実施形態による質問応答システム1は、再学習により、自動回答の精度(確信度)を向上させることができ、ユーザビリティをさらに向上させることができる。
また、本実施形態による質問応答方法は、利用者U1によって入力された質問に対する回答を出力する利用者端末装置10と、表示部23を備え、回答者A1による回答を利用者端末装置10に送信する回答者端末装置20とを備える質問応答システム1の質問応答方法であって、応答処理ステップと、回答取得ステップと、回答処理ステップとを含む。応答処理ステップにおいて、利用者端末装置10が、質問に対して自動生成された回答である自動回答を回答として出力するとともに、自動回答により有効な回答が得られない場合に、回答者端末装置20と接続させて受信した回答者A1からの回答を回答として出力する。回答取得ステップにおいて、回答者端末装置20が、回答者A1からの回答を取得する。回答処理ステップにおいて、回答者端末装置20が、利用者端末装置10と接続された場合に、利用者端末装置10における利用者U1との間の入出力履歴に基づく引継情報を、表示部23に表示させるとともに、回答者A1からの回答を取得し、取得した回答を利用者端末装置10に送信する。
これにより、本実施形態による質問応答方法は、上述した質問応答システム1と同様の効果を奏し、ユーザビリティを向上させることができる。
なお、本発明は、上記の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の実施形態において、質問応答システム1は、1台の利用者端末装置10と、1台の回答者端末装置20とを備える例を説明したが、これに限定されるものではなく、例えば、複数の利用者端末装置10、又は複数の回答者端末装置20を備えるようにしてもよい。
また、上記の実施形態において、利用者端末装置10は、機械学習による学習結果に基づくAI(人工知能)を用いて自動回答を生成する例を説明したが、これに限定されるものではなく、質問と回答とを対応付けたFAQ(Frequently Asked Questions)表に基づいて、自動回答を生成するようにしてもよい。この場合、利用者端末装置10は、FAQ表に基づいて、質問に対する自動回答を生成する回答生成部を備えるようにしてもよい。
また、上記の実施形態において、利用者端末装置10の応答処理部191は、利用者U1との質問及び自動回答のやり取りを行った後に、回答者端末装置20に接続する例を説明したが、これに限定されるものではない。例えば、下記の(A)~(C)ような場合には、応答処理部191は、質問及び自動回答のやり取りを行う前に、回答者端末装置20に接続するようにしてもよい。
(A)利用者U1が高齢者や身体障碍者など、有人による案内の優先度が高い場合
(B)利用者U1が、「係員を呼ぶ」ボタンBT1を押下した場合
(C)金銭のやり取りや個人情報、犯罪等に関わる内容などリスク/重要度/緊急性の高い内容に関する質問(問い合わせ)が利用者U1からあった場合
ここで、図8を参照して、本実施形態による質問応答システム1における自動回答から回答者による回答への切り換え処理の動作の変形例について説明する。
図8は、本実施形態における自動回答から回答者による回答への切り換え処理の動作の変形例を示す図である。
図8に示すように、利用者端末装置10の応答処理部191は、まず、自動回答が適切な回答に到達できないと判定されたか否かを判定する(ステップS401)。応答処理部191は、例えば、カメラ16(利用者情報取得部の一例)が取得する利用者U1の情報(例えば、利用者U1の画像)に基づいて、自動回答が適切な回答に到達できないと判定されたか否かを判定する。応答処理部191は、例えば、利用者U1の画像から、利用者U1が高齢者や身体障碍者(車いすに乗っている場合、白杖を所持している場合など)であると判定される場合(上述した(A)の場合)に、自動回答が適切な回答に到達できないと判定する。
応答処理部191は、自動回答が適切な回答に到達できないと判定された場合(ステップS401:YES)に、処理をステップS402に進める。また、応答処理部191は、自動回答が適切な回答に到達できないと判定されていない場合(ステップS401:NO)に、処理をステップS401に戻す。
ステップS402からステップS409までの処理は、上述した図6に示すステップS202からステップS209までの処理と同様であるため、ここではその説明を省略する。なお、ステップS406において、回答処理部291は、係員用(回答者A1用)の操作画面に、利用者端末装置10における利用者U1との間の入出力履歴又は利用者U1の情報に基づく引継情報を表示する。
このように、本実施形態による質問応答システム1は、利用者U1によって入力された質問に対する回答を出力する利用者端末装置10と、回答者A1による回答を利用者端末装置10に送信する回答者端末装置20とを備える。利用者端末装置10は、利用者U1の情報を取得する利用者情報取得部(例えば、カメラ16など)と、応答処理部191とを備える。応答処理部191は、質問に対して自動生成された回答である自動回答を回答として出力するとともに、利用者情報取得部(例えば、カメラ16など)が取得した利用者U1の情報に基づいて、自動回答が適切な回答に到達できないと判定された場合に、回答者端末装置20と接続させて受信した回答者A1からの回答を回答として出力する。また、回答者端末装置20は、表示部23と、回答処理部291とを備える。回答処理部291は、回答者端末装置20が、利用者端末装置10と接続された場合に、利用者端末装置10における利用者U1との間の入出力履歴又は利用者U1の情報に基づく引継情報を、表示部23に表示させるとともに、回答者A1からの回答を取得し、取得した回答を利用者端末装置10に送信する。
これにより、本実施形態による質問応答システム1は、例えば、利用者U1が高齢者や身体障碍者である場合に、迅速に回答者端末装置20に接続することができ、利用者U1のユーザビリティを向上させることができる。
また、本実施形態による質問応答方法は、上述した質問応答システム1の質問応答方法であって、利用者情報取得ステップと、応答処理ステップと、回答取得ステップと、回答処理ステップとを含む。利用者情報取得ステップにおいて、利用者端末装置10が、利用者U1の情報を取得する。応答処理ステップにおいて、利用者端末装置10が、質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、利用者情報取得ステップによって取得された利用者U1の情報に基づいて、自動回答が適切な回答に到達できないと判定された場合に、回答者端末装置20と接続させて受信した回答者A1からの回答を回答として出力する。回答取得ステップにおいて、回答者端末装置20が、回答者A1からの回答を取得する。回答処理ステップにおいて、回答者端末装置20が、利用者端末装置10と接続された場合に、利用者端末装置10における利用者U1との間の入出力履歴又は利用者U1の情報に基づく引継情報を、表示部23に表示させるとともに、回答者A1からの回答を取得し、取得した回答を利用者端末装置10に送信する。
これにより、本実施形態による質問応答方法は、上述した質問応答システム1と同様の効果を奏し、利用者U1のユーザビリティを向上させることができる。
なお、上述した変形例では、利用者情報取得部の一例として、カメラ16を用いる例を説明したが、これに限定されるものではなく、例えば、利用者U1が操作にまごついている場合など、入力部12による操作間隔などを用いるようにしてもよい。
また、上記の実施形態において、サーバ装置30が備える構成の一部を、利用者端末装置10又は回答者端末装置20が備えるようにしてもよい。例えば、利用者端末装置10又は回答者端末装置20が、音信号変換部331及び翻訳処理部332を備えるようにしてもよいし、回答生成部333を備えるようにしてもよい。
また、上記の実施形態において、利用者端末装置10に回答者A1の画像を表示する例を説明したが、これに限定されるものではなく、回答者A1の画像の代わりに、キャラクタやアバターを表示するようにしてもよい。この場合、利用者端末装置10は、利用者を案内の映像及び音声をアバターに合わせて変換するようにしてもよい。
また、上記の実施形態において、利用者端末装置10は、施設などに設置する例を説明したが、これに限定されるものではなく、例えば、シースルー型のヘッドマウントディスプレイ端末装置であってもよい。
また、上記の実施形態において、回答者端末装置20が放音部としてスピーカ25を備える例を説明したが、これに限定されるものではなく、放音部は、ヘッドフォンなどであってもよい。
また、上記の実施形態において、利用者端末装置10及び回答者端末装置20は、質問及び回答を音声による入出力を行う例を説明したが、これに限定されるものではなく、入力部12及び入力部22を用いてテキスト入力し、表示部13及び表示部23にテキスト表示するようにしてもよい。
なお、上述した質問応答システム1が備える各構成は、内部に、コンピュータシステムを有している。そして、上述した質問応答システム1が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した質問応答システム1が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に質問応答システム1が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
1 質問応答システム
10 利用者端末装置
11、21、31 NW通信部
12、22 入力部
13、23 表示部
14、24 マイク
15、25 スピーカ
16、26 カメラ
17 人感センサ
18、28 端末記憶部
19、29 端末制御部
20 回答者端末装置
27 警告灯
30 サーバ装置
32 サーバ記憶部
33 サーバ制御部
40 外部連携サーバ
181 操作履歴記憶部
182 会話履歴記憶部
183、283 画像情報記憶部
191 応答処理部
192 履歴処理部
281 引継情報記憶部
282 回答候補記憶部
291 回答処理部
321 学習結果記憶部
322 履歴情報記憶部
331 音信号変換部
332 翻訳処理部
333 回答生成部
334 機械学習部
A1 回答者
NW1 ネットワーク
U1 利用者
上記問題を解決するために、本発明の一態様は、利用者によって入力された質問に対する回答を出力する利用者端末装置と、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備え、前記利用者端末装置は、前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記自動回答により有効な前記回答が得られない場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理部を備え、前記回答者端末装置は、表示部と、前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理部とを備え、前記応答処理部は、機械学習による学習結果に基づく自動生成の処理における前記自動回答の確からしさを示す確信度が閾値以下である前記自動回答が、所定の回数続いた場合に、前記自動回答により有効な前記回答が得られないと判定することを特徴とする質問応答システムである。
また、本発明の一態様は、利用者によって入力された質問に対する回答を出力する利用者端末装置と、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備え、前記利用者端末装置は、前記利用者の情報を取得する利用者情報取得部と、前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記利用者情報取得部が取得した前記利用者の情報に基づいて、前記自動回答が適切な回答に到達できないと判定された場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理部とを備え、前記回答者端末装置は、表示部と、前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴又は前記利用者の情報に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理部とを備え、前記応答処理部は、前記利用者の情報に基づいて、前記利用者が、有人による案内の優先度が高い高齢者又は身体障碍者であると判定される場合に、前記自動回答が適切な回答に到達できないと判定することを特徴とする質問応答システムである。
また、本発明の一態様は、利用者によって入力された質問に対する回答を出力する利用者端末装置と、表示部を備え、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備える質問応答システムの質問応答方法であって、前記利用者端末装置が、前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記自動回答により有効な前記回答が得られない場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理ステップと、前記回答者端末装置が、前記回答者からの回答を取得する回答取得ステップと、前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理ステップとを含み、前記応答処理ステップにおいて、前記利用者端末装置が、機械学習による学習結果に基づく自動生成の処理における前記自動回答の確からしさを示す確信度が閾値以下である前記自動回答が、所定の回数続いた場合に、前記自動回答により有効な前記回答が得られないと判定することを特徴とする質問応答方法である。
また、本発明の一態様は、利用者によって入力された質問に対する回答を出力する利用者端末装置と、表示部を備え、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備える質問応答システムの質問応答方法であって、前記利用者端末装置が、前記利用者の情報を取得する利用者情報取得ステップと、前記利用者端末装置が、前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記利用者情報取得ステップによって取得された前記利用者の情報に基づいて、前記自動回答が適切な回答に到達できないと判定された場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理ステップと、前記回答者端末装置が、前記回答者からの回答を取得する回答取得ステップと、前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴又は前記利用者の情報に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理ステップとを含み、前記応答処理ステップにおいて、前記利用者端末装置が、前記利用者の情報に基づいて、前記利用者が、有人による案内の優先度が高い高齢者又は身体障碍者であると判定される場合に、前記自動回答が適切な回答に到達できないと判定することを特徴とする質問応答方法である。

Claims (13)

  1. 利用者によって入力された質問に対する回答を出力する利用者端末装置と、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備え、
    前記利用者端末装置は、
    前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記自動回答により有効な前記回答が得られない場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理部を備え、
    前記回答者端末装置は、
    表示部と、
    前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理部と
    を備えることを特徴とする質問応答システム。
  2. 利用者によって入力された質問に対する回答を出力する利用者端末装置と、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備え、
    前記利用者端末装置は、
    前記利用者の情報を取得する利用者情報取得部と、
    前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記利用者情報取得部が取得した前記利用者の情報に基づいて、前記自動回答が適切な回答に到達できないと判定された場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理部と
    を備え、
    前記回答者端末装置は、
    表示部と、
    前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴又は前記利用者の情報に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理部と
    を備えることを特徴とする質問応答システム。
  3. 前記入出力履歴には、前記利用者による前記利用者端末装置の操作履歴が含まれ、
    前記回答処理部は、前記利用者端末装置の操作履歴に基づく前記引継情報を、前記表示部に表示させる
    ことを特徴とする請求項1又は請求項2に記載の質問応答システム。
  4. 前記入出力履歴には、前記質問及び前記自動回答の履歴情報が含まれ、
    前記回答処理部は、前記質問及び前記自動回答の履歴情報に基づく前記引継情報を、前記表示部に表示させる
    ことを特徴とする請求項1から請求項3のいずれか一項に記載の質問応答システム。
  5. 前記利用者端末装置は、前記利用者の音声を入力音データとして収音する利用者収音部と、前記回答に基づく出力音データを音声として出力する利用者放音部とを備え、
    前記入出力履歴には、前記質問及び前記自動回答の履歴情報として、前記利用者収音部が収音した入力音データ及び前記利用者放音部が出力した前記出力音データに基づく前記利用者と前記利用者端末装置との間の会話履歴が含まれ、
    前記回答処理部は、前記会話履歴に基づいて、前記利用者と前記利用者端末装置との間の会話の内容を、前記引継情報として、前記表示部に表示させる
    ことを特徴とする請求項4に記載の質問応答システム。
  6. 前記利用者収音部が収音した前記入力音データを入力テキストデータに変換するとともに、前記自動回答を含む出力テキストデータを出力音データに変換する音信号変換部を備え、
    前記応答処理部は、前記音信号変換部から前記質問の入力テキストデータを取得し、前記音信号変換部により前記自動回答を前記出力音データに変換させる
    ことを特徴とする請求項5に記載の質問応答システム。
  7. 前記回答者端末装置は、前記回答者の音声を音データとして収音する回答者収音部と、前記利用者収音部が収音した前記入力音データに基づく音を出力する回答者放音部とを備え、
    前記回答処理部は、前記利用者端末装置から受信した前記入力音データに基づく音を前記回答者放音部に出力させるとともに、前記回答者収音部が収音した前記音データを、前記利用者端末装置に送信し、
    前記利用者端末装置は、前記回答者端末装置から受信した前記音データを出力音データとして、前記利用者放音部に出力させる
    ことを特徴とする請求項6に記載の質問応答システム。
  8. 前記回答処理部は、前記質問に対して、機械学習による学習結果に基づいて自動生成された回答候補を、前記表示部に表示させる
    ことを特徴とする請求項1から請求項7のいずれか一項に記載の質問応答システム。
  9. 前記利用者端末装置は、前記利用者が視認可能な表示部である利用者表示部を備え、
    前記回答処理部は、前記回答者が情報を追加可能な画像データであって、前記回答の説明に使用する画像データを前記表示部に表示させるとともに、当該画像データを前記利用者端末装置に送信し、
    前記応答処理部は、前記画像データを前記利用者表示部に表示させる
    ことを特徴とする請求項1から請求項8のいずれか一項に記載の質問応答システム。
  10. 前記応答処理部は、前記画像データを利用者が所有する携帯端末で取得して表示可能にする二次元コードを、前記利用者表示部に表示させる
    ことを特徴とする請求項9に記載の質問応答システム。
  11. 少なくとも前記回答者が使用する第1言語と、前記利用者が使用する第2言語とを相互に翻訳する翻訳処理部を備え、
    前記翻訳処理部は、前記利用者端末装置に入力された前記第2言語の質問を、前記第1言語の質問に翻訳するとともに、回答者端末装置に入力された前記第1言語の回答を、前記第2言語の回答に翻訳する
    ことを特徴とする請求項1から請求項10にいずれか一項に記載の質問応答システム。
  12. 利用者によって入力された質問に対する回答を出力する利用者端末装置と、表示部を備え、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備える質問応答システムの質問応答方法であって、
    前記利用者端末装置が、前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記自動回答により有効な前記回答が得られない場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理ステップと、
    前記回答者端末装置が、前記回答者からの回答を取得する回答取得ステップと、
    前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理ステップと
    を含むことを特徴とする質問応答方法。
  13. 利用者によって入力された質問に対する回答を出力する利用者端末装置と、表示部を備え、回答者による前記回答を前記利用者端末装置に送信する回答者端末装置とを備える質問応答システムの質問応答方法であって、
    前記利用者端末装置が、前記利用者の情報を取得する利用者情報取得ステップと、
    前記利用者端末装置が、前記質問に対して自動生成された回答である自動回答を前記回答として出力するとともに、前記利用者情報取得ステップによって取得された前記利用者の情報に基づいて、前記自動回答が適切な回答に到達できないと判定された場合に、前記回答者端末装置と接続させて受信した前記回答者からの回答を前記回答として出力する応答処理ステップと、
    前記回答者端末装置が、前記回答者からの回答を取得する回答取得ステップと、
    前記回答者端末装置が、前記利用者端末装置と接続された場合に、前記利用者端末装置における前記利用者との間の入出力履歴又は前記利用者の情報に基づく引継情報を、前記表示部に表示させるとともに、前記回答者からの回答を取得し、取得した前記回答を前記利用者端末装置に送信する回答処理ステップと
    を含むことを特徴とする質問応答方法。
JP2020199177A 2020-11-30 2020-11-30 質問応答システム、及び質問応答方法 Active JP6965982B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020199177A JP6965982B1 (ja) 2020-11-30 2020-11-30 質問応答システム、及び質問応答方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020199177A JP6965982B1 (ja) 2020-11-30 2020-11-30 質問応答システム、及び質問応答方法

Publications (2)

Publication Number Publication Date
JP6965982B1 JP6965982B1 (ja) 2021-11-10
JP2022086902A true JP2022086902A (ja) 2022-06-09

Family

ID=78466270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020199177A Active JP6965982B1 (ja) 2020-11-30 2020-11-30 質問応答システム、及び質問応答方法

Country Status (1)

Country Link
JP (1) JP6965982B1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342531A (ja) * 2001-05-15 2002-11-29 Uto Akihiko 通信端末を用いてのアンケート調査における信憑性疑問回答の自動除去方法及びシステム
JP2004355386A (ja) * 2003-05-29 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> 質問応答システムにおける質問会話中継方法及び装置、質問会話中継プログラム、質問会話中継プログラムを記録した記録媒体
JP2015032157A (ja) * 2013-08-02 2015-02-16 株式会社日立国際電気 顧客対応支援システム
JP2016038813A (ja) * 2014-08-08 2016-03-22 株式会社東芝 仮想試着装置、仮想試着システム、仮想試着方法、およびプログラム
EP3073421A1 (en) * 2015-03-25 2016-09-28 Facebook, Inc. Techniques for automated determination of form responses
JP2017097882A (ja) * 2015-11-24 2017-06-01 株式会社Nttドコモ 機械翻訳評価方法および装置、並びに機械翻訳方法および装置
JP2018081444A (ja) * 2016-11-15 2018-05-24 ソフトバンク株式会社 ユーザーサポートシステム、ユーザーサポートプログラム及びユーザーサポート方法
JP2018207143A (ja) * 2017-05-30 2018-12-27 沖電気工業株式会社 顧客応対システム、顧客応対方法、顧客応対装置、及びプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342531A (ja) * 2001-05-15 2002-11-29 Uto Akihiko 通信端末を用いてのアンケート調査における信憑性疑問回答の自動除去方法及びシステム
JP2004355386A (ja) * 2003-05-29 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> 質問応答システムにおける質問会話中継方法及び装置、質問会話中継プログラム、質問会話中継プログラムを記録した記録媒体
JP2015032157A (ja) * 2013-08-02 2015-02-16 株式会社日立国際電気 顧客対応支援システム
JP2016038813A (ja) * 2014-08-08 2016-03-22 株式会社東芝 仮想試着装置、仮想試着システム、仮想試着方法、およびプログラム
EP3073421A1 (en) * 2015-03-25 2016-09-28 Facebook, Inc. Techniques for automated determination of form responses
JP2017097882A (ja) * 2015-11-24 2017-06-01 株式会社Nttドコモ 機械翻訳評価方法および装置、並びに機械翻訳方法および装置
JP2018081444A (ja) * 2016-11-15 2018-05-24 ソフトバンク株式会社 ユーザーサポートシステム、ユーザーサポートプログラム及びユーザーサポート方法
JP2018207143A (ja) * 2017-05-30 2018-12-27 沖電気工業株式会社 顧客応対システム、顧客応対方法、顧客応対装置、及びプログラム

Also Published As

Publication number Publication date
JP6965982B1 (ja) 2021-11-10

Similar Documents

Publication Publication Date Title
US9858924B2 (en) Voice processing apparatus and voice processing method
JP6572361B2 (ja) 行動喚起プログラム及び携帯端末装置
US10245732B2 (en) Reception system and reception method
JP6053097B2 (ja) 機器操作システム、機器操作装置、サーバ、機器操作方法およびプログラム
KR102489914B1 (ko) 전자 장치 및 이의 제어 방법
US20150331665A1 (en) Information provision method using voice recognition function and control method for device
JP6719072B2 (ja) 接客装置、接客方法及び接客システム
WO2014057704A1 (ja) 商品情報提供システム、商品情報提供装置、及び商品情報出力装置
CN106713111B (zh) 一种添加好友的处理方法、终端及服务器
JP7088270B2 (ja) 質問応答システム、及び質問応答方法
JP6973380B2 (ja) 情報処理装置、および情報処理方法
CN111984180A (zh) 终端读屏方法、装置、设备及计算机可读存储介质
JP5220953B1 (ja) 商品情報提供システム、商品情報提供装置、及び商品情報出力装置
JP2016105248A (ja) 言語触覚変換装置
JP6965982B1 (ja) 質問応答システム、及び質問応答方法
JP2021157681A (ja) 簡易通信システム、簡易通信方法、及びプログラム
CN112309387A (zh) 用于处理信息的方法和装置
US20210241755A1 (en) Information-processing device and information-processing method
CN115909505A (zh) 手语识别设备的控制方法、装置、存储介质及电子设备
CN206892866U (zh) 具有情景分析功能的智能对话装置
JP2019086858A (ja) 顧客応対システム及び顧客応対方法
US11430429B2 (en) Information processing apparatus and information processing method
US11755652B2 (en) Information-processing device and information-processing method
JP2021009434A (ja) ブラウザ装置、情報出力方法及び情報出力プログラム
JP2010103704A (ja) 音声変換装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210104

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210104

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20201217

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R150 Certificate of patent or registration of utility model

Ref document number: 6965982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150