JP2022077831A - 質問推定装置、学習済みモデル生成装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体 - Google Patents

質問推定装置、学習済みモデル生成装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体 Download PDF

Info

Publication number
JP2022077831A
JP2022077831A JP2020188861A JP2020188861A JP2022077831A JP 2022077831 A JP2022077831 A JP 2022077831A JP 2020188861 A JP2020188861 A JP 2020188861A JP 2020188861 A JP2020188861 A JP 2020188861A JP 2022077831 A JP2022077831 A JP 2022077831A
Authority
JP
Japan
Prior art keywords
sentence
question
data
type
answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020188861A
Other languages
English (en)
Inventor
尚之 中井
Naoyuki Nakai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2020188861A priority Critical patent/JP2022077831A/ja
Publication of JP2022077831A publication Critical patent/JP2022077831A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】誤送信を未然に防ぐことが可能な質問推定装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体を提供する。【解決手段】質問推定装置10は、終了した会話の文字データであり複数の文章データから構成される会話履歴データを取得する会話履歴データ取得部11と、文章データ毎に、質問タイプと回答タイプとを含む文章タイプを識別する文章タイプ識別部12と、識別の結果に基づき、質問タイプの文章データと回答タイプの文章データとを紐づけて質問回答表を生成する質問回答表生成部13と、継続中の会話において、他のユーザへの送信前である未送信回答文章を取得する未送信文章取得部14と、質問回答表及び未送信回答文章に基づき、未送信回答文章に対応する推定質問文章を生成する推定質問文章生成部15と、を備える。【選択図】図1

Description

本発明は、質問推定装置、学習済みモデル生成装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体に関する。
カスタマからの質問に対応する担当者を支援するため、前記質問に対する回答を自動的に作成し、必要に応じて担当者により回答させる技術が報告されている(例えば、特許文献1等)。
特開2004-171479号公報
しかしながら、複数人のカスタマを1人の担当者が担当する場合、一方のカスタマへの回答を他方のカスタマに誤って送信した事故(誤送信ともいう)が多数発生している。
そこで、本発明は、誤送信を未然に防ぐことが可能な質問推定装置、学習済みモデル生成装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体を提供することを目的とする。
前記目的を達成するために、本発明の質問推定装置は、
会話履歴データ取得部、文章タイプ識別部、質問回答表生成部、未送信文章取得部、及び推定質問文章生成部を含み、
前記会話履歴データ取得部は、終了した会話の文字データである会話履歴データを取得し、
前記会話履歴データは、複数の文章データから構成され、
前記文章タイプ識別部は、前記文章データ毎に文章タイプを識別し、
前記文章タイプは、質問タイプと、回答タイプとを含み、
前記質問回答表生成部は、前記識別の結果に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成し、
前記未送信文章取得部は、継続中の会話において、他のユーザへの送信前である未送信回答文章を取得し、
前記推定質問文章生成部は、前記質問回答表及び前記未送信回答文章に基づき、前記未送信回答文章に対応する推定質問文章を生成する、装置である。
本発明の学習済みモデル生成装置は、
データ取得部、及び学習済みモデル生成部を含み、
前記データ取得部は、回答タイプの文章データと紐づけた質問タイプの文章データを教師データとして取得し、
前記学習済みモデル生成部は、前記教師データを用いた機械学習によって、前記回答タイプの文章データを入力した場合に、前記回答タイプの文章データに対応する推定質問文章を生成して出力する第1の学習済みモデルを生成する、装置である。
本発明の質問推定方法は、
会話履歴データ取得工程、文章タイプ識別工程、質問回答表生成工程、未送信文章取得工程、及び推定質問文章生成工程を含み、
前記会話履歴データ取得工程は、終了した会話の文字データである会話履歴データを取得し、
前記会話履歴データは、複数の文章データから構成され、
前記文章タイプ識別工程は、前記文章データ毎に文章タイプを識別し、
前記文章タイプは、質問タイプと、回答タイプとを含み、
前記質問回答表生成工程は、前記識別の結果に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成し、
前記未送信文章取得工程は、継続中の会話において、他のユーザへの送信前である未送信回答文章を取得し、
前記推定質問文章生成工程は、前記質問回答表及び前記未送信回答文章に基づき、前記未送信回答文章に対応する推定質問文章を生成する、方法である。
本発明の学習済みモデルの生産方法は、
データ取得工程、及び学習済みモデル生成工程を含み、
前記データ取得工程は、回答タイプの文章データと紐づけた質問タイプの文章データを教師データとして取得し、
前記学習済みモデル生成工程は、前記教師データを用いた機械学習によって、前記回答タイプの文章データを入力した場合に、前記回答タイプの文章データに対応する推定質問文章を生成して出力する第1の学習済みモデルを生成する、生産方法である。
本発明によれば、誤送信を未然に防ぐことができる。
図1は、実施形態1の質問推定装置の一例の構成を示すブロック図である。 図2は、実施形態1の質問推定装置のハードウエア構成の一例を示すブロック図である。 図3は、実施形態1の質問推定装置における処理の一例を示すフローチャートである。 図4は、会話履歴データベースの一例を示す図である。 図5は、送信された各文章データの時系列の一例を示す図である。 図6は、実施形態1の質問推定装置における質問回答表の生成の一例を示す図である。 図7(A)は、実施形態2の学習済みモデル生成装置の一例の構成を示すブロック図であり、図7(B)は、前記学習済みモデル生成装置のハードウエア構成の一例を示すブロック図である。 図8は、実施形態2の学習済みモデル生成装置における処理の一例を示すフローチャートである。 図9は、実施形態3において、質問文章推定モデルを作成する一例について示す図である。 図10は、実施形態3において、生成した推定質問文章と継続中の会話における送信済み質問文章との類似度を分析する一例を示す図である。
本発明の質問推定装置において、例えば、
前記文章タイプ識別部は、不要文識別部、不要文削除部、形態素解析部、及び識別部を含み、
前記不要文識別部は、前記文章データ内の不要文を識別し、
前記不要文削除部は、前記識別した不要文を前記文章データから削除し、
前記形態素解析部は、前記文章データに対して文単位で形態素解析を行い、
前記識別部は、前記形態素解析に基づき、予め設定した文末表現ルールに従って、前記文章データの文章タイプを識別する、という態様であってもよい。
本発明の質問推定装置において、例えば、
前記質問回答表生成部は、下記条件(1)~(3)の少なくとも一方に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成する、という態様であってもよい。
(1)前記回答タイプの文章データに、前記回答タイプの文章データよりも送信時刻の古い前記質問タイプの文章データを紐づける
(2)前記回答タイプの文章データを送信したユーザと異なる他のユーザが送信した前記質問タイプの文章データを紐づける
(3)前記回答タイプの文章データとの紐づけの対象となる前記質問タイプの文章データが複数存在する場合に、前記回答タイプの文章データと前記質問タイプの文章データとの類似度を算出し、前記類似度が高い前記回答タイプの文章データと前記質問タイプの文章データとの組み合わせで紐づける
本発明の質問推定装置において、例えば、
前記推定質問文章生成部は、質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成し、
前記質問文章推定モデルは、入力された未送信回答文章から前記未送信回答文章に対応する推定質問文章を生成するように学習されたモデルである、という態様であってもよい。
本発明の質問推定装置は、例えば、
さらに、学習処理部を含み、
前記学習処理部は、前記質問回答表における前記質問文章を教師データとし、前記質問タイプの文章データと紐づけられている前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築し、
前記推定質問文章生成部は、前記構築した質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成する、という態様であってもよい。
前記学習処理部を含む態様の本発明の質問推定装置において、例えば、
前記学習処理部は、前記教師付き機械学習を行う前に、入力された文章データをベクトルに変換するように教師なし学習されたベクトル変換学習済みモデルに、前記質問回答表の各文章データを入力して、前記各文章データをベクトルに変換し、且つ
前記ベクトルに変換した前記質問タイプの文章データを教師データとし、前記ベクトルに変換した前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築する、という態様であってもよい。
本発明の質問推定装置は、例えば、
さらに、出力部、質問文章取得部、及び類似度分析部を含み、
前記質問文章取得部は、継続中の会話における送信済みであって且つ他のユーザが送信した質問タイプの文章データを取得し、
前記類似度分析部は、前記送信済みの質問タイプの文章データと前記生成した推定質問文章と比較して類似度を分析し、
前記出力部は、前記類似度を出力ずる、という態様であってもよい。
本発明の学習済みモデル生成装置において、例えば、
前記データ取得部は、会話履歴データを取得し、
前記会話履歴データは、複数の文章データから構成され、
前記学習済みモデル生成部は、さらに、前記会話履歴データを用いた教師なし機械学習によって、前記文章データを入力した場合に、前記文章データをベクトルに変換して出力する第2の学習済みモデルを生成する、という態様であってもよい。
本発明の質問推定方法において、例えば、
前記文章タイプ識別工程は、不要文識別工程、不要文削除工程、形態素解析工程、及び識別工程を含み、
前記不要文識別工程は、前記文章データ内の不要文を識別し、
前記不要文削除工程は、前記識別した不要文を前記文章データから削除し、
前記形態素解析工程は、前記文章データに対して文単位で形態素解析を行い、
前記識別工程は、前記形態素解析に基づき、予め設定した文末表現ルールに従って、前記文章データの文章タイプを識別する、という態様であってもよい。
本発明の質問推定方法において、例えば、
前記質問回答表生成工程は、下記条件(1)~(3)の少なくとも一方に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成する、という態様であってもよい。
(1)前記回答タイプの文章データに、前記回答タイプの文章データよりも送信時刻の古い前記質問タイプの文章データを紐づける
(2)前記回答タイプの文章データを送信したユーザと異なる他のユーザが送信した前記質問タイプの文章データを紐づける
(3)前記回答タイプの文章データとの紐づけの対象となる前記質問タイプの文章データが複数存在する場合に、前記回答タイプの文章データと前記質問タイプの文章データとの類似度を算出し、前記類似度が高い前記回答タイプの文章データと前記質問タイプの文章データとの組み合わせで紐づける
本発明の質問推定方法において、例えば、
前記推定質問文章生成工程は、質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成し、
前記質問文章推定モデルは、入力された未送信回答文章から前記未送信回答文章に対応する推定質問文章を生成するように学習されたモデルである、という態様であってもよい。
本発明の質問推定方法は、例えば、
さらに、学習処理工程を含み、
前記学習処理工程は、前記質問回答表における前記質問文章を教師データとし、前記質問タイプの文章データと紐づけられている前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築し、
前記推定質問文章生成工程は、前記構築した質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成する、という態様であってもよい。
前記学習処理工程を含む態様の本発明の質問推定方法において、例えば、
前記学習処理工程は、前記教師付き機械学習を行う前に、入力された文章データをベクトルに変換するように教師なし学習されたベクトル変換学習済みモデルに、前記質問回答表の各文章データを入力して、前記各文章データをベクトルに変換し、且つ
前記ベクトルに変換した前記質問タイプの文章データを教師データとし、前記ベクトルに変換した前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築する、という態様であってもよい。
本発明の質問推定方法は、例えば、
さらに、出力工程、質問文章取得工程、及び類似度分析工程を含み、
前記質問文章取得工程は、継続中の会話における送信済みであって且つ他のユーザが送信した質問タイプの文章データを取得し、
前記類似度分析工程は、前記送信済みの質問タイプの文章データと前記生成した推定質問文章と比較して類似度を分析し、
前記出力工程は、前記類似度を出力ずる、という態様であってもよい。
本発明の学習済みモデルの生産方法において、例えば、
前記データ取得工程は、会話履歴データを取得し、
前記会話履歴データは、複数の文章データから構成され、
前記学習済みモデル生成工程は、さらに、前記会話履歴データを用いた教師なし機械学習によって、前記文章データを入力した場合に、前記文章データをベクトルに変換して出力する第2の学習済みモデルを生成する、という態様であってもよい。
本発明のプログラムは、本発明の方法の各工程を、手順として、コンピュータに実行させるためのプログラムである。
本発明の記録媒体は、本発明のプログラムを記録しているコンピュータ読み取り可能な記録媒体である。
本発明の適用分野は、特に制限されず、会話において、「質問」及び前記質問に対する「回答」の送受信が実行される分野であればよい。なお、本発明において、会話とは、二人以上の話者が話をすることをいう。前記会話は、例えば、チャットやメール等の文字データを用いる形式によって話をする形態でもよいし、通話等の音声データを用いる形式によって話をする形態であってもよい。前記会話は、一方のユーザ(質問者)からの質問の提示から始まり、他方のユーザ(回答者)からの前記質問に対する回答までの一連の流れを1セットとする。前記質問者と前記回答者との関係は、特に制限されないが、例えば、カスタマと担当者、生徒と教師、選手とコーチ等の関係がある。以下において、前記質問者としてカスタマ、前記回答者として担当者を例に挙げて説明する場合もあるが、これに限定されない。
次に、本発明の実施形態について図を用いて説明する。本発明は、以下の実施形態には限定されない。以下の各図において、同一部分には、同一符号を付している。また、各実施形態の説明は、特に言及がない限り、互いの説明を援用でき、各実施形態の構成は、特に言及がない限り、組合せ可能である。
[実施形態1]
図1は、本実施形態の質問推定装置10の一例の構成を示すブロック図である。図1に示すように、本装置10は、会話履歴データ取得部11、文章タイプ識別部12、質問回答表生成部13、未送信文章取得部14、及び推定質問文章生成部15を含む。本装置10は、例えば、任意の構成として、さらに、出力部16、学習処理部17、質問文章取得部18、及び類似度分析部19を含んでもよい。文章タイプ識別部12は、例えば、不要文識別部121、不要文削除部122、形態素解析部123、及び識別部124を含んでもよい。
本装置10は、例えば、前記各部を含む1つの装置でもよいし、前記各部が、通信回線網を介して接続可能な装置でもよい。また、本装置10は、前記通信回線網を介して、後述する外部装置と接続可能である。前記通信回線網は、特に制限されず、公知のネットワークを使用でき、例えば、有線でも無線でもよい。前記通信回線網は、例えば、インターネット回線、WWW(World Wide Web)、電話回線、LAN(Local Area Network)、SAN(Storage Area Network)、DTN(Delay Tolerant Networking)、LPWA(Low Power Wide Area)、L5G(ローカル5G)、等があげられる。無線通信としては、例えば、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、ローカル5G、LPWA等が挙げられる。前記無線通信としては、各装置が直接通信する形態(Ad Hoc通信)、インフラストラクチャ(infrastructure通信)、アクセスポイントを介した間接通信等であってもよい。本装置10は、例えば、システムとしてサーバに組み込まれていてもよい。また、本装置10は、例えば、本発明のプログラムがインストールされたパーソナルコンピュータ(PC、例えば、デスクトップ型、ノート型)、スマートフォン、タブレット端末等であってもよい。さらに、本装置10は、例えば、前記各部のうち少なくとも一つがサーバ上にあり、その他の前記各部が端末上にあるような、クラウドコンピューティングやエッジコンピューティング等の形態であってもよい。
図2に、本装置10のハードウエア構成のブロック図を例示する。本装置10は、例えば、中央処理装置(CPU、GPU等)101、メモリ102、バス103、記憶装置104、入力装置105、表示装置106、通信デバイス107等を含む。本装置10の各部は、それぞれのインタフェース(I/F)により、バス103を介して相互に接続されている。
中央処理装置101は、本装置10の全体の制御を担う。本装置10において、中央処理装置101により、例えば、本発明のプログラムやその他のプログラムが実行され、また、各種情報の読み込みや書き込みが行われる。具体的には、例えば、中央処理装置101が、会話履歴データ取得部11、文章タイプ識別部12、質問回答表生成部13、未送信文章取得部14、及び推定質問文章生成部15として機能する。また、中央処理装置101は、例えば、出力部16、学習処理部17、質問文章取得部18、及び類似度分析部19としても機能する。
バス103は、例えば、外部装置とも接続できる。前記外部装置は、例えば、外部記憶装置(外部データベース等)、プリンター、外部入力装置、外部表示装置、外部撮像装置等があげられる。本装置10は、例えば、バス103に接続された通信デバイス107により、外部ネットワーク(前記通信回線網)に接続でき、外部ネットワークを介して、他の装置と接続することもできる。また、本装置10は、例えば、図1に示すように、バス103に接続された通信デバイス107により、前記通信回線網を介して、会話履歴データベース100と接続することもできる。
メモリ102は、例えば、メインメモリ(主記憶装置)が挙げられる。中央処理装置101が処理を行う際には、例えば、後述する記憶装置104に記憶されている本発明のプログラム等の種々の動作プログラムを、メモリ102が読み込み、中央処理装置101は、メモリ102からデータを受け取って、プログラムを実行する。前記メインメモリは、例えば、RAM(ランダムアクセスメモリ)である。また、メモリ102は、例えば、ROM(読み出し専用メモリ)であってもよい。
記憶装置104は、例えば、前記メインメモリ(主記憶装置)に対して、いわゆる補助記憶装置ともいう。前述のように、記憶装置104には、本発明のプログラムを含む動作プログラムが格納されている。記憶装置104は、例えば、記録媒体と、記録媒体に読み書きするドライブとの組合せであってもよい。前記記録媒体は、特に制限されず、例えば、内蔵型でも外付け型でもよく、HD(ハードディスク)、CD-ROM、CD-R、CD-RW、MO、DVD、フラッシュメモリー、メモリーカード等が挙げられる。記憶装置104は、例えば、記録媒体とドライブとが一体化されたハードディスクドライブ(HDD)、及びソリッドステートドライブ(SSD)であってもよい。
本装置10において、メモリ102及び記憶装置104は、ユーザのログ情報、並びに、外部データベース(図示せず)から取得した情報を記憶することも可能である。
本装置10は、例えば、さらに、入力装置105、及び表示装置106を含んでもよい。入力装置105は、例えば、タッチパネル、キーボード、マウス等である。表示装置106は、例えば、LEDディスプレイ、液晶ディスプレイ等が挙げられる。
つぎに、本実施形態の質問推定方法の一例を、図3のフローチャートに基づき説明する。本実施形態の質問推定方法は、例えば、図1の質問推定装置10を用いて、次のように実施する。なお、本実施形態の質問推定方法は、図1の質問推定装置10の使用には限定されない。
まず、会話履歴データ取得部11により、終了した会話の文字データである会話履歴データを取得する(S11)。前記会話履歴データは、複数の文章データから構成される。前記会話が音声データを用いる形式によって話をする形態である場合、会話履歴データ取得部11は、例えば、終了した会話の音声データを文字データに変換した会話履歴データを取得してもよい。会話履歴データ取得部11は、例えば、前記通信回線網を介して、前記会話履歴データを格納している会話履歴データベース100から前記会話履歴データを取得してもよい。会話履歴データベース100の一例を図4に示す。図4に示すように、前記会話履歴データは、例えば、前記会話毎にテーブルデータとして記憶されていてもよい。また、前記会話履歴データは、例えば、前記文章データ毎の送信時刻及び送信者に関する送信情報を含んでいてもよい。「終了した会話」とは、すなわち、会話開始のきっかけとなった質問者(カスタマ等)からの質問に対し回答者(担当者等)から回答があった会話を意味する。以下、「終了した会話」を「対応済みの会話」ともいう。会話履歴データベース100は、例えば、対応済みの会話の会話履歴データと対応中の会話(継続中の会話ともいう)の会話履歴データとを識別して格納してもよい。「対応中の会話」とは、すなわち、会話開始のきっかけとなった質問者(カスタマ等)からの質問に対し回答者(担当者等)から回答がない会話を意味する。図4に示す各文章データの時系列を図5に示す。図5に示すように、1人の担当者は、例えば、並行して複数のカスタマと会話をしている。
次に、文章タイプ識別部12により、前記文章データ毎に文章タイプを識別する(S12)。
文章タイプ識別部12による処理(前記工程(S12))の一例について具体的に説明する。文章タイプ識別部12は、例えば、不要文識別部121、不要文削除部122、形態素解析部123、及び識別部124を含む。まず、不要文識別部121により、前記文章データ内の不要文を識別する(S121)。具体的には、例えば、「いつもお世話になっております。」や「ありがとうございます。」等の予め設定した文章及び前記予め設定した文章と類似度の高い文章を不要文として識別する。前記類似度は、特に制限されないが、例えば、後述のコサイン類似度を用いることができる。次に、不要文削除部122により、前記識別した不要文を前記文章データから削除する(S122)。次に、形態素解析部123により、前記文章データに対して文単位で形態素解析を行う(S123)。次に、識別部124により、前記形態素解析に基づき、予め設定した文末表現ルールに従って、前記文章データの文章タイプを識別する(S124)。前記文末表現ルールは、文末の表現と前記文章タイプとを紐づけたものであり、任意に設定できる。具体的に、前記質問タイプと紐づけられた前記文末の表現としては、例えば、「・・・ください。」、「・・・をお願いします。」、「・・・は何ですか?」、「・・・起きますか?」等がある。また、前記回答タイプと紐づけられた前記文末の表現としては、例えば、「・・・になります。」、「・・・解決します。」等がある。文章タイプ識別部12は、例えば、前記工程(S121)~(S124)の処理を全ての文章データに対して実行する。
次に、質問回答表生成部13により、前記識別の結果に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成する(S13)。前記質問回答表は、例えば、メモリ102及び記憶装置104に記憶されてもよい。質問回答表生成部13は、例えば、下記条件(1)~(3)の少なくとも一方に基づき、質問回答表を生成してもよい。
(1)前記回答タイプの文章データに、前記回答タイプの文章データよりも送信時刻の古い前記質問タイプの文章データを紐づける
(2)前記回答タイプの文章データを送信したユーザと異なる他のユーザが送信した前記質問タイプの文章データを紐づける
(3)前記回答タイプの文章データとの紐づけの対象となる前記質問タイプの文章データが複数存在する場合に、前記回答タイプの文章データと前記質問タイプの文章データとの類似度を算出し、前記類似度が高い前記回答タイプの文章データと前記質問タイプの文章データとの組み合わせで紐づける
図6に、前記質問回答表の生成の一例について示す。図6では、前記会話履歴データにおける各文章データを送信時刻に沿って示している。図6に示す各文章データにおいて、文章タイプ識別部12により質問タイプと識別された文章データは、送信時刻の順に沿って「Qn(nは1以上の整数)」として示し、回答タイプと識別された文章データは、送信時刻の順に沿って「Am(mは1以上の整数)」として示す。回答タイプの文章データA1は、例えば、図6に示すように、質問回答表生成部13により上記条件(1)及び(2)に従い、文章データA1の送信時刻t3よりも前に送信されており、且つ文章データA1の送信者Xとは異なる送信者Yにより送信されている質問タイプの文章データQ2と紐づけられる。回答タイプの文章データA2及びA3も、例えば、文章データA1と同様にして、それぞれ、質問タイプの文章データQ1及びQ3と紐づけられる。このように、回答タイプの文章データは、例えば、複数の質問タイプの文章データと紐づけられてもよい。一方で、例えば、回答タイプの文章データA2及びA3のように、紐づけの対象となる前記質問タイプの文章データが複数存在する場合は、例えば、上記条件(3)に従い、前記類似度を算出し、前記類似度が高い前記回答タイプの文章データと前記質問タイプの文章データとの組み合わせで紐づけてもよい。前記類似度は、特に制限されないが、例えば、コサイン類似度である。具体的に、例えば、前記類似度の算出として、各文章データをベクトル化して、コサイン類似度を算出する手法が用いられる。前記類似度は、前記類似度が高いほど、前記各文章データが類似していることを意味する。具体的に、回答タイプの文章データA2の場合は、例えば、文章データA2と文章データQ1との組み合わせにおける類似度、及び文章データA2と文章データQ3との組み合わせにおける類似度をそれぞれ算出し、前記類似度が高い組み合わせで紐づけを行う。
前記類似度として、コサイン類似度を例に挙げてより具体的に説明する。まず、質問推定装置10は、各文章データに対し形態素解析を行い、前記各文章データを単語単位に分割する。次に、質問推定装置10は、文章データ毎に、各単語の出現回数を算出し、前記文章データを長さが単語の数(語彙数ともいう。前記出現回数のことではない)となるベクトルにする。ここまでの処理を、例えば、文章のベクトル化(エンベデッド化)といい、TF-IDF(Term Frequency-Inverse Document Frequency)等の技術を用いることができる。そして、前記ベクトルを用いて、コサイン類似度を算出する。前記コサイン類似度は、比較する各ベクトルが、同じ方向を向いている程度を表す指標であり、例えば、その値は―1から1の間を取り、1に近いほど同一方向であるといえる。すなわち、前記値が1に近いほど、比較する各文章データの類似度が高いと判断される。
次に、未送信文章取得部14により、継続中の会話において、他のユーザへの送信前である未送信回答文章を取得する(S14)。未送信文章取得部14は、例えば、前記通信回線網を介して、前記回答者(例えば、担当者等)によって外部入力装置から前記未送信回答文章を取得してもよい。
そして、推定質問文章生成部15により、前記質問回答表及び前記未送信回答文章に基づき、前記未送信回答文章に対応する推定質問文章を生成して(S15)、終了する(END)。推定質問文章生成部15は、例えば、質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成してもよい。前記質問文章推定モデルは、入力された未送信回答文章から前記未送信回答文章に対応する推定質問文章を生成するように学習されたモデルである。前記質問文章推定モデルは、例えば、外部から取得してもよいし、本装置10が学習処理部17を含む場合に学習処理部17により構築してもよい。前記質問文章推定モデルは、例えば、未送信回答文章を入力する入力層と、推定質問文章を出力する出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層とを含む。前記質問文章推定モデルは、例えば、人工知能ソフトウェアの一部であるプログラムモジュールであってもよい。前記多層化ネットワークとしては、例えば、ニューラルネットワーク等が挙げられる。前記ニューラルネットワークとしては、例えば、畳み込みニューラルネットワーク(Convolution Neural Network:CNN)等が挙げられる。なお、前記質問文章推定モデルは、前記CNNに限定されず、例えば、CNN以外のニューラルネットワーク、SVM(Support Vector Machine)、ベイジアンネットワーク、回帰木等の他の学習アルゴリズムで構築された学習済みモデルであってもよい。
学習処理部17について説明する。学習処理部17は、前記工程(S13)の後に、前記質問回答表における前記質問文章を教師データとし、前記質問タイプの文章データと紐づけられている前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築する(S17)。前記教師付き機械学習は、例えば、前述と同様に、CNN、SVM、ベイジアンネットワーク、回帰木等を用いた機械学習である。学習処理部17は、例えば、前記教師付き機械学習を行う前に、入力された文章データをベクトルに変換するように教師なし学習されたベクトル変換学習済みモデルに、前記質問回答表の各文章データを入力して、前記各文章データをベクトルに変換してもよい。そして、学習処理部17は、前記ベクトルに変換した前記質問タイプの文章データを教師データとし、前記ベクトルに変換した前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築してもよい。前記ベクトル変換学習済みモデルは、例えば、外部から取得してもよいし、学習処理部17により構築してもよい。すなわち、学習処理部17は、例えば、前記教師なし学習を行う事前学習(Pre-training)のフェーズと、その後に行う教師付き機械学習を行う詳細学習(Fine Tuning)のフェーズとの2つのフェーズで構成されてもよい。具体的に、前記事前学習は、例えば、大量のラベルなし文章データ(会話履歴データの文章データ)から、文中の単語をマスクし、前記マスクした単語を推測する学習を行う処理である。また、具体的に、前記詳細学習は、例えば、前記ベクトル変換学習済みモデルを初期値に利用し、少量のラベル付きデータ(前記質問回答表)を使って再学習させることで、生成する推定質問文章の精度を高める処理である。
また、例えば、前記工程(S15)の後に、出力部16により、生成した前記推定質問文章を出力し(S16)、終了してもよい(END)。出力部16は、例えば、前記通信回線網を介して、外部装置に出力してもよいし、表示装置106に出力してもよい。
さらに、例えば、質問文章取得部18により、継続中の会話における送信済みであって且つ他のユーザが送信した質問タイプの文章データを取得してもよい(S18)。前記工程(S18)を実行するタイミングは、特に制限されない。質問文章取得部18は、例えば、前記継続中の会話における送信済みの文章データを全て取得し、前記取得した文章データを前述と同様にして、文章タイプ識別部12により文章タイプを識別し、前記質問タイプと識別された文章データ(送信済み質問文章ともいう)のみを取得してもよい。
前記工程(S18)を実行する場合、前記工程(S15)及び前記工程(S18)の後に、類似度分析部19により、前記送信済みの質問タイプの文章データと前記生成した推定質問文章と比較して類似度を分析する(S19)。前記類似度は、例えば、コサイン類似度を用いることができる。
そして、出力部16により、前記類似度を出力して(S20)、終了する(END)。前記出力は、例えば、前記類似度が予め設定した値以下であれば、前記類似度が低いことを示す警告を出力してもよい。また、出力部16は、例えば、前記類似度が予め設定した値以下であれば、前記未送信回答文書を出力(送信)不可にするように制御可能であってもよい。
本実施形態によれば、推定質問文章を生成することで、継続中の会話における質問文章と前記推定質問文章との類似性を確認することに活用でき、誤送信を未然に防ぐことができる。また、本実施形態によれば、例えば、類似度を算出することができるため、継続中の会話における質問文章と前記推定質問文章との類似性の確認が容易である。さらに、本実施形態によれば、事前学習(Pre-training)のフェーズと、その後に行う詳細学習(Fine Tuning)のフェーズとの2つのフェーズにより、より精度の高い推定質問文章を生成することができる。
[実施形態2]
図7(A)は、本実施形態の学習済みモデル生成装置20の一例の構成を示すブロック図である。図7(A)に示すように、本装置20は、データ取得部21、及び学習済みモデル生成部22を含む。
本装置20は、例えば、前記各部を含む1つの装置でもよいし、前記各部が、前記通信回線網を介して接続可能な装置でもよい。また、本装置20は、前記通信回線網を介して、前述の外部装置と接続可能である。本装置20は、例えば、システムとしてサーバに組み込まれていてもよい。また、本装置20は、例えば、本発明のプログラムがインストールされたパーソナルコンピュータ(PC、例えば、デスクトップ型、ノート型)、スマートフォン、タブレット端末等であってもよい。さらに、本装置20は、例えば、前記各部のうち少なくとも一つがサーバ上にあり、その他の前記各部が端末上にあるような、クラウドコンピューティングやエッジコンピューティング等の形態であってもよい。
図7(B)に、学習済みモデル生成装置20のハードウエア構成のブロック図を例示する。学習済みモデル生成装置20は、例えば、中央処理装置(CPU、GPU等)101、メモリ102、バス103、記憶装置104、入力装置105、表示装置106、通信デバイス107等を含む。学習済みモデル生成装置20のハードウエア構成の各部は、特に言及しない限り、図3に示す質問推定装置10のハードウエア構成の各部の記載を援用できる。
中央処理装置101は、例えば、データ取得部21及び学習済みモデル生成部22として機能する。
メモリ102及び記憶装置104は、本装置20によって生成された学習済みモデルを記憶してもよい。
つぎに、本実施形態の学習済みモデルの生産方法の一例を、図8のフローチャートに基づき説明する。本実施形態の学習済みモデルの生産方法は、例えば、図7の学習済みモデル生成装置20を用いて、次のように実施する。なお、本実施形態の学習済みモデルの生産方法は、図7の学習済みモデル生成装置20の使用には限定されない。
まず、データ取得部21により、回答タイプの文章データと紐づけた質問タイプの文章データを教師データとして取得する(S21)。次に、学習済みモデル生成部22により、前記教師データを用いた機械学習によって、前記回答タイプの文章データを入力した場合に、前記回答タイプの文章データに対応する推定質問文章を生成して出力する第1の学習済みモデルを生成し(S22)、終了する(END)。前記第1の学習済みモデルは、例えば、前記実施形態1記載の質問推定装置10において、質問文章推定モデルとして使用されてもよい。
つまり、本装置20は、機械付き機械学習を行うことで、前記回答タイプの文章データを入力とし、前記推定質問文章を出力とするニューラルネットワークを構築(生成)する、ともいえる。前記ニューラルネットワークとしては、例えば、前述と同様である。前記ニューラルネットワークは、例えば、前記回答タイプの文章データを受け付ける入力層と、前記推定質問文章を出力する出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層とを含んでもよい。
前記入力層は、例えば、前記回答タイプの文章データの入力を受け付ける複数のニューロンを含み、入力された前記回答タイプの文章データを前記中間層に受け渡す。前記中間層は、前記前記回答タイプの文章データの特徴量を抽出する複数のニューロンを含み、抽出した前記特徴量を前記出力層に受け渡す。前記出力層は、推定質問文章を出力する一又は複数のニューロンを含み、前記中間層から出力された前記特徴量に基づいて、前記推定質問文章の生成を行う。
前記教師データ及び前記入力される回答タイプの文章データは、例えば、前記機械学習及び第1の学習済みモデルに供される前に形態素解析(自然言語処理(NLP:Natural Language Processing))に供されてもよい。
データ取得部21は、例えば、さらに、会話履歴データを取得してもよい。前記会話履歴データは、前述と同様であり、複数の文章データから構成される。そして、学習済みモデル生成部22は、さらに、例えば、前記会話履歴データを用いた教師なし機械学習によって、前記文章データを入力した場合に、前記文章データをベクトルに変換して出力する第2の学習済みモデルを生成してもよい。前記第2の学習済みモデルは、例えば、前記実施形態1記載の質問推定装置10において、ベクトル変換学習済みモデルとして使用されてもよい。すなわち、本装置20は、前記質問文章推定モデルと前記ベクトル変換学習済みモデルの2つの学習済みモデルを生成してもよい。
本実施形態によって生成される第1及び第2の学習済みモデルは、例えば、前記実施形態1記載の質問推定装置10に使用される。これにより、推定質問文章を生成可能であり、誤送信を未然に防ぐことができる。
[実施形態3]
図9を用いて、質問文章推定モデルを作成する一例について具体的に説明する。
図9は、質問文章推定モデルを作成する一例について示す図である。図9に示すように、質問推定装置10は、質問回答表生成部13により、取得した前記会話履歴データを用いて、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表(QA表)を生成する。一方で、質問推定装置10は、学習処理部17により、取得した前記会話履歴データを用いて、教師なし機械学習を行い(Pre-training)、前記ベクトル変換学習済みモデルを構築する。前記ベクトル変換学習済みモデルは、例えば、前述のように、外部から取得してもよいし、学習済みモデル生成装置20により生成された学習済みモデルを用いてもよい。そして、質問推定装置10は、学習処理部17により、前記QA表における各文章データを入力して、前記各文章データをベクトルに変換する。前記QA表は、例えば、図9に示すように、前記各文章データと前記ベクトルとを紐づけて記憶するデータであってもよい。次に、質問推定装置10は、学習処理部17により、前記QA表における質問タイプの文章データに対し自然言語処理を行い、且つ前記質問タイプの文章データを教師データとし、前記質問タイプの文章データと紐づけられている前記回答タイプの文章データを入力データとして用いて、教師付き機械学習を行い(Fine-tuning)、前記質問文章推定モデルを構築する。前記質問文章推定モデルは、例えば、前述のように、学習済みモデル生成装置20により生成された学習済みモデルを用いてもよい。
図10を用いて、類似度を出力する一例について具体的に説明する。
図10は、生成した推定質問文章と継続中の会話における送信済み質問文章との類似度を分析する一例について示す図である。図10に示す回答者端末30は、回答者側の会話支援装置であり、例えば、前記質問者及び前記回答者間のやり取り(対話・会話)を行う装置である。回答者端末30のディスプレイ(表示装置)には、例えば、図10に示すように、継続中の会話における複数の文章データが表示される。また、前記ディスプレイには、入力欄が表示されている。前記回答者は、入力装置を用いて前記入力欄内に文章データを入力する。図10において、前記入力欄に入力された文章データは、回答タイプの文章データであるが、質問対応の文章データが入力されてもよい。質問推定装置10は、例えば、未送信文章取得部14により前記入力欄に入力された未送信の文章データを取得して、文章タイプ識別部12により前記入力欄に入力された文章データの文章タイプを識別してもよい。そして、前記入力欄に入力された文章データの文章タイプが回答タイプと識別された場合に、質問推定装置10は、例えば、推定質問文章生成部15による推定質問文章の生成、質問文章取得部18による送信済み回答文章の取得、類似度分析部19による類似度の分析等を実行する。一方で、質問推定装置10は、例えば、回答者端末30から前記類似度の分析に関するリクエストを取得してもよい。具体的に、前記回答タイプの文章データを入力した回答者は、例えば、ディスプレイに表示された「正当性確認」を押下する。そうすると、回答者端末30から質問推定装置10に前記リクエストが送信される。前記リクエストを取得した質問推定装置10は、未送信文章取得部14により、前記入力欄に入力された回答タイプの文章データ(未送信回答文章)を取得する。次に、前述と同様に、質問推定装置10は、推定質問文章生成部15による推定質問文章の生成、質問文章取得部18による送信済み回答文章の取得、類似度分析部19による類似度の分析を実行する。そして、出力部16により、前記未送信回答文章が前記会話に対する送信対象としての確からしさの程度を示す「正当性」として、前記類似度を回答者端末30に出力する。出力された前記類似度(正当性)は、例えば、回答者端末30のディスプレイに表示される。これにより、回答者は、ディスプレイに表示された前記正当性の程度を確認することができ、誤送信の防止につながる。
[実施形態4]
本実施形態のプログラムは、本発明の方法の各工程を、手順として、コンピュータに実行させるためのプログラムである。本発明において、「手順」は、「処理」と読み替えてもよい。また、本実施形態のプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録されていてもよい。前記記録媒体としては、特に限定されず、例えば、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク等が挙げられる。
以上、実施形態を参照して本発明を説明したが、本発明は、上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をできる。
<付記>
上記の実施形態の一部または全部は、以下の付記のように記載されうるが、以下には限られない。
(付記1)
会話履歴データ取得部、文章タイプ識別部、質問回答表生成部、未送信文章取得部、及び推定質問文章生成部を含み、
前記会話履歴データ取得部は、終了した会話の文字データである会話履歴データを取得し、
前記会話履歴データは、複数の文章データから構成され、
前記文章タイプ識別部は、前記文章データ毎に文章タイプを識別し、
前記文章タイプは、質問タイプと、回答タイプとを含み、
前記質問回答表生成部は、前記識別の結果に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成し、
前記未送信文章取得部は、継続中の会話において、他のユーザへの送信前である未送信回答文章を取得し、
前記推定質問文章生成部は、前記質問回答表及び前記未送信回答文章に基づき、前記未送信回答文章に対応する推定質問文章を生成する、質問推定装置。
(付記2)
前記文章タイプ識別部は、不要文識別部、不要文削除部、形態素解析部、及び識別部を含み、
前記不要文識別部は、前記文章データ内の不要文を識別し、
前記不要文削除部は、前記識別した不要文を前記文章データから削除し、
前記形態素解析部は、前記文章データに対して文単位で形態素解析を行い、
前記識別部は、前記形態素解析に基づき、予め設定した文末表現ルールに従って、前記文章データの文章タイプを識別する、付記1記載の質問推定装置。
(付記3)
前記質問回答表生成部は、下記条件(1)~(3)の少なくとも一方に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成する、付記1又は2記載の質問推定装置。
(1)前記回答タイプの文章データに、前記回答タイプの文章データよりも送信時刻の古い前記質問タイプの文章データを紐づける
(2)前記回答タイプの文章データを送信したユーザと異なる他のユーザが送信した前記質問タイプの文章データを紐づける
(3)前記回答タイプの文章データとの紐づけの対象となる前記質問タイプの文章データが複数存在する場合に、前記回答タイプの文章データと前記質問タイプの文章データとの類似度を算出し、前記類似度が高い前記回答タイプの文章データと前記質問タイプの文章データとの組み合わせで紐づける
(付記4)
前記推定質問文章生成部は、質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成し、
前記質問文章推定モデルは、入力された未送信回答文章から前記未送信回答文章に対応する推定質問文章を生成するように学習されたモデルである、付記1から3のいずれかに記載の質問推定装置。
(付記5)
さらに、学習処理部を含み、
前記学習処理部は、前記質問回答表における前記質問文章を教師データとし、前記質問タイプの文章データと紐づけられている前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築し、
前記推定質問文章生成部は、前記構築した質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成する、付記1から4のいずれかに記載の質問推定装置。
(付記6)
前記学習処理部は、前記教師付き機械学習を行う前に、入力された文章データをベクトルに変換するように教師なし学習されたベクトル変換学習済みモデルに、前記質問回答表の各文章データを入力して、前記各文章データをベクトルに変換し、且つ
前記ベクトルに変換した前記質問タイプの文章データを教師データとし、前記ベクトルに変換した前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築する、付記6記載の質問推定装置。
(付記7)
さらに、出力部、質問文章取得部、及び類似度分析部を含み、
前記質問文章取得部は、継続中の会話における送信済みであって且つ他のユーザが送信した質問タイプの文章データを取得し、
前記類似度分析部は、前記送信済みの質問タイプの文章データと前記生成した推定質問文章と比較して類似度を分析し、
前記出力部は、前記類似度を出力ずる、付記1から6のいずれかに記載の質問推定装置。
(付記8)
データ取得部、及び学習済みモデル生成部を含み、
前記データ取得部は、回答タイプの文章データと紐づけた質問タイプの文章データを教師データとして取得し、
前記学習済みモデル生成部は、前記教師データを用いた機械学習によって、前記回答タイプの文章データを入力した場合に、前記回答タイプの文章データに対応する推定質問文章を生成して出力する第1の学習済みモデルを生成する、学習済みモデル生成装置。
(付記9)
前記データ取得部は、会話履歴データを取得し、
前記会話履歴データは、複数の文章データから構成され、
前記学習済みモデル生成部は、さらに、前記会話履歴データを用いた教師なし機械学習によって、前記文章データを入力した場合に、前記文章データをベクトルに変換して出力する第2の学習済みモデルを生成する、付記8記載の学習済みモデル生成装置。
(付記10)
会話履歴データ取得工程、文章タイプ識別工程、質問回答表生成工程、未送信文章取得工程、及び推定質問文章生成工程を含み、
前記会話履歴データ取得工程は、終了した会話の文字データである会話履歴データを取得し、
前記会話履歴データは、複数の文章データから構成され、
前記文章タイプ識別工程は、前記文章データ毎に文章タイプを識別し、
前記文章タイプは、質問タイプと、回答タイプとを含み、
前記質問回答表生成工程は、前記識別の結果に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成し、
前記未送信文章取得工程は、継続中の会話において、他のユーザへの送信前である未送信回答文章を取得し、
前記推定質問文章生成工程は、前記質問回答表及び前記未送信回答文章に基づき、前記未送信回答文章に対応する推定質問文章を生成する、質問推定方法。
(付記11)
前記文章タイプ識別工程は、不要文識別工程、不要文削除工程、形態素解析工程、及び識別工程を含み、
前記不要文識別工程は、前記文章データ内の不要文を識別し、
前記不要文削除工程は、前記識別した不要文を前記文章データから削除し、
前記形態素解析工程は、前記文章データに対して文単位で形態素解析を行い、
前記識別工程は、前記形態素解析に基づき、予め設定した文末表現ルールに従って、前記文章データの文章タイプを識別する、付記10記載の質問推定方法。
(付記12)
前記質問回答表生成工程は、下記条件(1)~(3)の少なくとも一方に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成する、付記10又は11記載の質問推定方法。
(1)前記回答タイプの文章データに、前記回答タイプの文章データよりも送信時刻の古い前記質問タイプの文章データを紐づける
(2)前記回答タイプの文章データを送信したユーザと異なる他のユーザが送信した前記質問タイプの文章データを紐づける
(3)前記回答タイプの文章データとの紐づけの対象となる前記質問タイプの文章データが複数存在する場合に、前記回答タイプの文章データと前記質問タイプの文章データとの類似度を算出し、前記類似度が高い前記回答タイプの文章データと前記質問タイプの文章データとの組み合わせで紐づける
(付記13)
前記推定質問文章生成工程は、質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成し、
前記質問文章推定モデルは、入力された未送信回答文章から前記未送信回答文章に対応する推定質問文章を生成するように学習されたモデルである、付記10から12のいずれかに記載の質問推定方法。
(付記14)
さらに、学習処理工程を含み、
前記学習処理工程は、前記質問回答表における前記質問文章を教師データとし、前記質問タイプの文章データと紐づけられている前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築し、
前記推定質問文章生成工程は、前記構築した質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成する、付記10から13のいずれかに記載の質問推定方法。
(付記15)
前記学習処理工程は、前記教師付き機械学習を行う前に、入力された文章データをベクトルに変換するように教師なし学習されたベクトル変換学習済みモデルに、前記質問回答表の各文章データを入力して、前記各文章データをベクトルに変換し、且つ
前記ベクトルに変換した前記質問タイプの文章データを教師データとし、前記ベクトルに変換した前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築する、付記14記載の質問推定方法。
(付記16)
さらに、出力工程、質問文章取得工程、及び類似度分析工程を含み、
前記質問文章取得工程は、継続中の会話における送信済みであって且つ他のユーザが送信した質問タイプの文章データを取得し、
前記類似度分析工程は、前記送信済みの質問タイプの文章データと前記生成した推定質問文章と比較して類似度を分析し、
前記出力工程は、前記類似度を出力ずる、付記10から15のいずれかに記載の質問推定方法。
(付記17)
データ取得工程、及び学習済みモデル生成工程を含み、
前記データ取得工程は、回答タイプの文章データと紐づけた質問タイプの文章データを教師データとして取得し、
前記学習済みモデル生成工程は、前記教師データを用いた機械学習によって、前記回答タイプの文章データを入力した場合に、前記回答タイプの文章データに対応する推定質問文章を生成して出力する第1の学習済みモデルを生成する、学習済みモデルの生産方法。
(付記18)
前記データ取得工程は、会話履歴データを取得し、
前記会話履歴データは、複数の文章データから構成され、
前記学習済みモデル生成工程は、さらに、前記会話履歴データを用いた教師なし機械学習によって、前記文章データを入力した場合に、前記文章データをベクトルに変換して出力する第2の学習済みモデルを生成する、付記17記載の学習済みモデルの生産方法。
(付記19)
コンピュータに、会話履歴データ取得手順、文章タイプ識別手順、質問回答表生成手順、未送信文章取得手順、及び推定質問文章生成手順を含む手順を実行させるためのプログラム:
前記会話履歴データ取得手順は、終了した会話の文字データである会話履歴データを取得し、
前記会話履歴データは、複数の文章データから構成され、
前記文章タイプ識別手順は、前記文章データ毎に文章タイプを識別し、
前記文章タイプは、質問タイプと、回答タイプとを含み、
前記質問回答表生成手順は、前記識別の結果に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成し、
前記未送信文章取得手順は、継続中の会話において、他のユーザへの送信前である未送信回答文章を取得し、
前記推定質問文章生成手順は、前記質問回答表及び前記未送信回答文章に基づき、前記未送信回答文章に対応する推定質問文章を生成する。
(付記20)
前記文章タイプ識別手順は、不要文識別手順、不要文削除手順、形態素解析手順、及び識別手順を含み、
前記不要文識別手順は、前記文章データ内の不要文を識別し、
前記不要文削除手順は、前記識別した不要文を前記文章データから削除し、
前記形態素解析手順は、前記文章データに対して文単位で形態素解析を行い、
前記識別手順は、前記形態素解析に基づき、予め設定した文末表現ルールに従って、前記文章データの文章タイプを識別する、付記19記載のプログラム。
(付記21)
前記質問回答表生成手順は、下記条件(1)~(3)の少なくとも一方に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成する、付記19又は20記載のプログラム。
(1)前記回答タイプの文章データに、前記回答タイプの文章データよりも送信時刻の古い前記質問タイプの文章データを紐づける
(2)前記回答タイプの文章データを送信したユーザと異なる他のユーザが送信した前記質問タイプの文章データを紐づける
(3)前記回答タイプの文章データとの紐づけの対象となる前記質問タイプの文章データが複数存在する場合に、前記回答タイプの文章データと前記質問タイプの文章データとの類似度を算出し、前記類似度が高い前記回答タイプの文章データと前記質問タイプの文章データとの組み合わせで紐づける
(付記22)
前記推定質問文章生成手順は、質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成し、
前記質問文章推定モデルは、入力された未送信回答文章から前記未送信回答文章に対応する推定質問文章を生成するように学習されたモデルである、付記19から21のいずれかに記載のプログラム。
(付記23)
さらに、学習処理手順を含み、
前記学習処理手順は、前記質問回答表における前記質問文章を教師データとし、前記質問タイプの文章データと紐づけられている前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築し、
前記推定質問文章生成手順は、前記構築した質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成する、付記19から22のいずれかに記載のプログラム。
(付記24)
前記学習処理手順は、前記教師付き機械学習を行う前に、入力された文章データをベクトルに変換するように教師なし学習されたベクトル変換学習済みモデルに、前記質問回答表の各文章データを入力して、前記各文章データをベクトルに変換し、且つ
前記ベクトルに変換した前記質問タイプの文章データを教師データとし、前記ベクトルに変換した前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築する、付記23記載のプログラム。
(付記25)
さらに、出力手順、質問文章取得手順、及び類似度分析手順を含み、
前記質問文章取得手順は、継続中の会話における送信済みであって且つ他のユーザが送信した質問タイプの文章データを取得し、
前記類似度分析手順は、前記送信済みの質問タイプの文章データと前記生成した推定質問文章と比較して類似度を分析し、
前記出力手順は、前記類似度を出力ずる、付記19から24のいずれかに記載のプログラム。
(付記26)
コンピュータに、データ取得手順、及び学習済みモデル生成手順を含む手順を実行させるためのプログラム:
前記データ取得手順は、回答タイプの文章データと紐づけた質問タイプの文章データを教師データとして取得し、
前記学習済みモデル生成手順は、前記教師データを用いた機械学習によって、前記回答タイプの文章データを入力した場合に、前記回答タイプの文章データに対応する推定質問文章を生成して出力する第1の学習済みモデルを生成する。
(付記27)
前記データ取得手順は、会話履歴データを取得し、
前記会話履歴データは、複数の文章データから構成され、
前記学習済みモデル生成手順は、さらに、前記会話履歴データを用いた教師なし機械学習によって、前記文章データを入力した場合に、前記文章データをベクトルに変換して出力する第2の学習済みモデルを生成する、付記26記載のプログラム。
(付記28)
付記19から27のいずれかに記載のプログラムを記録しているコンピュータ読み取り可能な記録媒体。
本発明によれば、回答の誤送信を未然に防ぐことができる。このため、本発明は、複数人のカスタマからの質問に対し、回答者として1人の担当者が担当(回答)する場合において特に有用である。
10 質問推定装置
11 会話履歴データ取得部
12 文章タイプ識別部
13 質問回答表生成部
14 未送信文章取得部
15 推定質問文章生成部
16 出力部
17 学習処理部
18 質問文章取得部
19 類似度分析部
20 学習済みモデル生成装置
21 データ取得部
22 学習済みモデル生成部
100 会話履歴データベース
101 中央処理装置
102 メモリ
103 バス
104 記憶装置
105 入力装置
106 表示装置
107 通信デバイス

Claims (10)

  1. 会話履歴データ取得部、文章タイプ識別部、質問回答表生成部、未送信文章取得部、及び推定質問文章生成部を含み、
    前記会話履歴データ取得部は、終了した会話の文字データである会話履歴データを取得し、
    前記会話履歴データは、複数の文章データから構成され、
    前記文章タイプ識別部は、前記文章データ毎に文章タイプを識別し、
    前記文章タイプは、質問タイプと、回答タイプとを含み、
    前記質問回答表生成部は、前記識別の結果に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成し、
    前記未送信文章取得部は、継続中の会話において、他のユーザへの送信前である未送信回答文章を取得し、
    前記推定質問文章生成部は、前記質問回答表及び前記未送信回答文章に基づき、前記未送信回答文章に対応する推定質問文章を生成する、質問推定装置。
  2. 前記文章タイプ識別部は、不要文識別部、不要文削除部、形態素解析部、及び識別部を含み、
    前記不要文識別部は、前記文章データ内の不要文を識別し、
    前記不要文削除部は、前記識別した不要文を前記文章データから削除し、
    前記形態素解析部は、前記文章データに対して文単位で形態素解析を行い、
    前記識別部は、前記形態素解析に基づき、予め設定した文末表現ルールに従って、前記文章データの文章タイプを識別する、請求項1記載の質問推定装置。
  3. 前記推定質問文章生成部は、質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成し、
    前記質問文章推定モデルは、入力された未送信回答文章から前記未送信回答文章に対応する推定質問文章を生成するように学習されたモデルである、請求項1又は2記載の質問推定装置。
  4. さらに、学習処理部を含み、
    前記学習処理部は、前記質問回答表における前記質問文章を教師データとし、前記質問タイプの文章データと紐づけられている前記回答タイプの文章データを入力データとして、教師付き機械学習により前記質問文章推定モデルを構築し、
    前記推定質問文章生成部は、前記構築した質問文章推定モデルに、取得した前記未送信回答文章を入力して、前記未送信回答文章に対応する推定質問文章を生成する、請求項1から3のいずれか一項に記載の質問推定装置。
  5. さらに、出力部、質問文章取得部、及び類似度分析部を含み、
    前記質問文章取得部は、継続中の会話における送信済みであって且つ他のユーザが送信した質問タイプの文章データを取得し、
    前記類似度分析部は、前記送信済みの質問タイプの文章データと前記生成した推定質問文章と比較して類似度を分析し、
    前記出力部は、前記類似度を出力ずる、請求項1から4のいずれか一項に記載の質問推定装置。
  6. データ取得部、及び学習済みモデル生成部を含み、
    前記データ取得部は、回答タイプの文章データと紐づけた質問タイプの文章データを教師データとして取得し、
    前記学習済みモデル生成部は、前記教師データを用いた機械学習によって、前記回答タイプの文章データを入力した場合に、前記回答タイプの文章データに対応する推定質問文章を生成して出力する第1の学習済みモデルを生成する、学習済みモデル生成装置。
  7. 会話履歴データ取得工程、文章タイプ識別工程、質問回答表生成工程、未送信文章取得工程、及び推定質問文章生成工程を含み、
    前記会話履歴データ取得工程は、終了した会話の文字データである会話履歴データを取得し、
    前記会話履歴データは、複数の文章データから構成され、
    前記文章タイプ識別工程は、前記文章データ毎に文章タイプを識別し、
    前記文章タイプは、質問タイプと、回答タイプとを含み、
    前記質問回答表生成工程は、前記識別の結果に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成し、
    前記未送信文章取得工程は、継続中の会話において、他のユーザへの送信前である未送信回答文章を取得し、
    前記推定質問文章生成工程は、前記質問回答表及び前記未送信回答文章に基づき、前記未送信回答文章に対応する推定質問文章を生成する、質問推定方法。
  8. データ取得工程、及び学習済みモデル生成工程を含み、
    前記データ取得工程は、回答タイプの文章データと紐づけた質問タイプの文章データを教師データとして取得し、
    前記学習済みモデル生成工程は、前記教師データを用いた機械学習によって、前記回答タイプの文章データを入力した場合に、前記回答タイプの文章データに対応する推定質問文章を生成して出力する第1の学習済みモデルを生成する、学習済みモデルの生産方法。
  9. コンピュータに、会話履歴データ取得手順、文章タイプ識別手順、質問回答表生成手順、未送信文章取得手順、及び推定質問文章生成手順を含む手順を実行させるためのプログラム:
    前記会話履歴データ取得手順は、終了した会話の文字データである会話履歴データを取得し、
    前記会話履歴データは、複数の文章データから構成され、
    前記文章タイプ識別手順は、前記文章データ毎に文章タイプを識別し、
    前記文章タイプは、質問タイプと、回答タイプとを含み、
    前記質問回答表生成手順は、前記識別の結果に基づき、前記質問タイプの文章データと前記回答タイプの文章データとを紐づけて質問回答表を生成し、
    前記未送信文章取得手順は、継続中の会話において、他のユーザへの送信前である未送信回答文章を取得し、
    前記推定質問文章生成手順は、前記質問回答表及び前記未送信回答文章に基づき、前記未送信回答文章に対応する推定質問文章を生成する。
  10. コンピュータに、データ取得手順、及び学習済みモデル生成手順を含む手順を実行させるためのプログラム:
    前記データ取得手順は、回答タイプの文章データと紐づけた質問タイプの文章データを教師データとして取得し、
    前記学習済みモデル生成手順は、前記教師データを用いた機械学習によって、前記回答タイプの文章データを入力した場合に、前記回答タイプの文章データに対応する推定質問文章を生成して出力する第1の学習済みモデルを生成する。
JP2020188861A 2020-11-12 2020-11-12 質問推定装置、学習済みモデル生成装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体 Pending JP2022077831A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020188861A JP2022077831A (ja) 2020-11-12 2020-11-12 質問推定装置、学習済みモデル生成装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020188861A JP2022077831A (ja) 2020-11-12 2020-11-12 質問推定装置、学習済みモデル生成装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体

Publications (1)

Publication Number Publication Date
JP2022077831A true JP2022077831A (ja) 2022-05-24

Family

ID=81706896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020188861A Pending JP2022077831A (ja) 2020-11-12 2020-11-12 質問推定装置、学習済みモデル生成装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体

Country Status (1)

Country Link
JP (1) JP2022077831A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7304666B1 (ja) 2023-04-20 2023-07-07 株式会社SoVa 情報処理システム、情報処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7304666B1 (ja) 2023-04-20 2023-07-07 株式会社SoVa 情報処理システム、情報処理方法及びプログラム

Similar Documents

Publication Publication Date Title
US11823061B2 (en) Systems and methods for continual updating of response generation by an artificial intelligence chatbot
US11741484B2 (en) Customer interaction and experience system using emotional-semantic computing
US11386271B2 (en) Mathematical processing method, apparatus and device for text problem, and storage medium
US11379736B2 (en) Machine comprehension of unstructured text
US10909328B2 (en) Sentiment adapted communication
US10592607B2 (en) Iterative alternating neural attention for machine reading
CN114830148A (zh) 可控制有基准的文本生成
US11556709B2 (en) Text autocomplete using punctuation marks
US10896222B1 (en) Subject-specific data set for named entity resolution
US10997223B1 (en) Subject-specific data set for named entity resolution
US11669687B1 (en) Systems and methods for natural language processing (NLP) model robustness determination
US20200272791A1 (en) Systems and methods for automated conversations with a transactional assistant
US11900518B2 (en) Interactive systems and methods
US20220358295A1 (en) System and method for a cognitive conversation service
Sadoughi et al. Meaningful head movements driven by emotional synthetic speech
WO2023129255A1 (en) Intelligent character correction and search in documents
Agarla et al. Semi-supervised cross-lingual speech emotion recognition
JP2022077831A (ja) 質問推定装置、学習済みモデル生成装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体
KR102434666B1 (ko) 사전 데이터베이스를 활용하여 음성 데이터에 기반한 텍스트를 생성하기 위한 방법 및 컴퓨팅 장치
CN115798456A (zh) 跨语言情感语音合成方法、装置及计算机设备
CN114357964A (zh) 主观题评分方法、模型的训练方法、计算机设备及存储介质
US11907673B1 (en) Enhancing chatbot recognition of user intent through graph analysis
JP2020071737A (ja) 学習方法、学習プログラム及び学習装置
US11483208B2 (en) System and method for reducing network traffic
US20220245339A1 (en) Debiasing Pre-trained Sentence Encoders With Probabilistic Dropouts

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231004