JP7101752B2 - 情報処理システム、情報処理方法および情報処理装置 - Google Patents

情報処理システム、情報処理方法および情報処理装置 Download PDF

Info

Publication number
JP7101752B2
JP7101752B2 JP2020213626A JP2020213626A JP7101752B2 JP 7101752 B2 JP7101752 B2 JP 7101752B2 JP 2020213626 A JP2020213626 A JP 2020213626A JP 2020213626 A JP2020213626 A JP 2020213626A JP 7101752 B2 JP7101752 B2 JP 7101752B2
Authority
JP
Japan
Prior art keywords
data
machine learning
learning model
input
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020213626A
Other languages
English (en)
Other versions
JP2022099685A (ja
Inventor
テイミン グェン
憲幸 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2020213626A priority Critical patent/JP7101752B2/ja
Priority to US17/645,740 priority patent/US20220198337A1/en
Priority to EP21216740.7A priority patent/EP4020339A1/en
Priority to CN202111588796.3A priority patent/CN114742230A/zh
Priority to JP2022108497A priority patent/JP7402277B2/ja
Publication of JP2022099685A publication Critical patent/JP2022099685A/ja
Application granted granted Critical
Publication of JP7101752B2 publication Critical patent/JP7101752B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は情報処理システム、情報処理方法および情報処理装置に関する。
近年、例えばチャットボットと呼ばれる、質問の応答を自動化するシステムが開発されている。このシステムでは質問が入力されると、その質問が予め定められた複数のラベルのいずれに対応するか判定し、判定されたラベルに対応する回答を出力する。近年では、この質問文から対応するラベルを判定するNLU(Natural Language Understanding)の処理において、機械学習モデルが多く用いられている。
特許文献1には、自然言語理解システムをトレーニングさせるためのトレーニングデータに注釈を付けることを支援する手法が開示されている。
特開2004-5648号公報
機械学習モデルの学習に用いる学習データのセットの構成によって、学習後の機械学習モデルの性能が変化することが知られている。そのため、学習データのセットを作成する際に、管理者がその学習データのセットに問題がないか調査し編集する必要がある。管理者にとって学習データのセットを解析することは大きな負担となっていた。
本発明は上記課題を鑑みてなされたものであって、その目的は、機械学習モデルの性能を確保するための学習データのセットの準備を容易にするための技術を提供することにある。
上記課題を解決するために、本発明にかかる情報処理システムは、入力データと当該入力データに対する教師データであるラベルとを含む学習データのセットにより機械学習モデルを学習させる学習サーバと、前記学習された機械学習モデルにユーザから入力される入力データを入力し、当該機械学習モデルにより出力されるラベルに基づいて応答データを出力する応答サーバとを含む情報処理システムであって、前記学習データのセットを取得する初期データ取得手段と、前記学習データのセットにより前記機械学習モデルを学習させる学習手段と、前記学習データのセットにより学習された前記機械学習モデルに対してテストデータを入力し、前記テストデータが入力された機械学習モデルの出力に基づいて前記機械学習モデルの性能が所定の条件を満たしているか評価する評価手段と、前記機械学習モデルの性能が前記所定の条件を満たしていると評価された場合に、前記学習された機械学習モデルを前記応答サーバに展開する展開手段と、前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、前記学習データのセットを更新するデータ更新手段と、前記更新された学習データのセットにより前記機械学習モデルを再学習させる再学習手段と、を含み、前記評価手段の評価に応じて前記データ更新手段、前記再学習手段、前記評価手段の処理を繰り返す。
また、本発明にかかる情報処理方法は、入力データと当該入力データに対する教師データであり応答データの作成に用いられるラベルとを含む学習データのセットを取得するステップと、前記学習データのセットにより前記機械学習モデルを学習させるステップと、前記学習データのセットにより学習された前記機械学習モデルに対してテストデータを入力し、前記テストデータが入力された機械学習モデルの出力に基づいて前記機械学習モデルの性能が所定の条件を満たしているか評価するステップと、前記機械学習モデルの性能が前記所定の条件を満たしていると評価された場合に、前記学習された機械学習モデルにユーザから入力される入力データを入力し、当該機械学習モデルにより出力されるラベルに基づいて応答データを出力する応答サーバに、前記性能が評価された機械学習モデルを展開するステップと、前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、前記学習データのセットを更新するステップと、前記更新された学習データのセットにより前記機械学習モデルを再学習させるステップと、を含み、前記評価に応じて前記学習データのセットを更新するステップと、前記機械学習モデルを再学習させるステップと、前記機械学習モデルの性能を評価するステップとを繰り返す。
また、本発明にかかる情報処理装置は、入力データと当該入力データに対する教師データであり応答データの作成に用いられるラベルとを含む学習データのセットを取得する初期データ取得手段と、前記学習データのセットにより前記機械学習モデルを学習させる学習手段と、前記学習データのセットにより学習された前記機械学習モデルに対してテストデータを入力し、前記テストデータが入力された機械学習モデルの出力に基づいて前記機械学習モデルの性能が所定の条件を満たしているか評価する評価手段と、前記機械学習モデルの性能が前記所定の条件を満たしていると評価された場合に、前記学習された機械学習モデルにユーザから入力される入力データを入力し、当該機械学習モデルにより出力されるラベルに基づいて応答データを出力する前記応答サーバに、前記性能が評価された機械学習モデルを展開する展開手段と、前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、前記学習データのセットを更新するデータ更新手段と、前記更新された学習データのセットにより前記機械学習モデルを再学習させる再学習手段と、を含み、前記評価手段の評価に応じて前記データ更新手段、前記再学習手段、前記評価手段の処理を繰り返す。
本発明の一形態では、情報処理システムは、前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、前記学習データのセットが検出条件を満たしているか判定する検出手段、をさらに含み、前記データ更新手段は、前記検出条件を満たしていると判定された場合に、前記学習データのセットを更新してもよい。
本発明の一形態では、前記検出手段は、前記学習データのセットにおけるラベルごとの入力データの数が検出条件を満たしているか判定し、前記データ更新手段は、前記検出条件を満たしていると判定された場合に、前記学習データのセットを更新してもよい。
本発明の一形態では、前記データ更新手段は、前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、改善パラメータに基づいて前記学習データのセットを更新し、情報処理システムは、前記学習データのセットの更新に応じて前記改善パラメータを更新するパラメータ更新手段をさらに含んでよい。
本発明の一形態では、情報処理システムは、前記ユーザから入力データが入力された場合に、前記入力データをログストレージに記憶させるログ手段をさらに含み、前記検出手段は、前記学習データのセットについて入力データの数が不足するラベルが存在するか判定し、前記データ更新手段は、前記入力データの数が不足するラベルが存在すると判定された場合に、前記ログストレージに格納された入力データから、当該ラベルに対応する入力データを抽出し、前記学習データのセットに前記抽出された入力データと当該ラベルとを含む学習データを追加してよい。
本発明の一形態では、前記データ更新手段は、前記入力データの数が不足するラベルが存在すると判定された場合に、前記学習データのセットにおいて当該ラベルに対応する入力データと、前記ログストレージに格納された入力データとに基づいて、前記ログストレージに格納された入力データから、当該ラベルに対応する入力データを抽出してよい。
本発明の一形態では、情報処理システムは、前記ユーザから入力データが入力された場合に、前記入力データをログストレージに記憶させるログ手段と、前記ログストレージに格納された入力データから、いずれかのラベルに対応する入力データを抽出し、前記学習データに前記抽出された入力データと当該ラベルとのセットを追加するテストデータ追加手段と、をさらに含んでよい。
本発明により、機械学習モデルの性能を確保するための学習データのセットを準備することが容易になる。
本発明の実施形態にかかる情報処理システムの一例を示す図である。 情報処理システムが実現する機能を示すブロック図である。 学習データセットの一例を示す図である。 質問回答部の機能的な構成を示すブロック図である。 情報処理システムにおいて、機械学習モデルの学習に関する処理を概略的に示すフロー図である。 問題検出部の処理およびデータ変更部の処理を説明する図である。 データ解析に関する処理の一例を示すフロー図である。 学習データセットのサンプル数の調整を説明する図である。 質問回答部の処理の一例を示すフロー図である。 質問ログの一例を示す図である。 データ追加の処理の一例を示すフロー図である。 類似度とユーザ質問の抽出との関係を説明する図である。
以下では、本発明の実施形態を図面に基づいて説明する。同じ符号を付された構成に対しては、重複する説明を省略する。本実施形態では、チャットボットのように利用者から質問を受け付け、その質問が予め定められた複数のラベルのいずれに対応するか判定し、判定されたラベルに対応する回答を出力する情報処理システムについて説明する。
以下では質問がテキストとして入力される場合について説明するが、質問は音声で入力されてもよい。またこの情報処理システムは、自然言語理解(NLU)を実現するための機械学習モデルを用いており、情報処理システムは学習データのセットで機械学習モデルを学習させ、学習済の機械学習モデルが利用者からの質問の分析に用いられる。
図1は、本発明の実施形態にかかる情報処理システムの一例を示す図である。情報処理システムは、学習管理サーバ1と、問合せ対応サーバ2とを含む。学習管理サーバ1と問合せ対応サーバ2とはネットワークを介して接続され、問合せ対応サーバ2は複数の利用者端末3とネットワークを介して接続されている。利用者端末3は情報処理システムが提供するサービスの利用者であって、質問をする利用者により操作される。利用者端末3は、例えばスマートフォンやパーソナルコンピュータなどである。
学習管理サーバ1はプロセッサ11、記憶部12、通信部13、入出力部14を含む。なお、学習管理サーバ1は、サーバコンピュータである。ここで、図示しないが、問合せ対応サーバ2は、サーバコンピュータであり、学習管理サーバ1と同様に、プロセッサ11、記憶部12、通信部13、入出力部14を含む。以下で説明される学習管理サーバ1および問合せ対応サーバ2のそれぞれの機能は、複数のサーバコンピュータにより実現されてもよい。
プロセッサ11は、記憶部12に格納されているプログラムに従って動作する。またプロセッサ11は通信部13、入出力部14を制御する。なお、上記プログラムは、インターネット等を介して提供されるものであってもよいし、フラッシュメモリやDVD-ROM等のコンピュータで読み取り可能な記憶媒体に格納されて提供されるものであってもよい。
記憶部12は、RAMおよびフラッシュメモリ等のメモリ素子とハードディスクドライブのような外部記憶装置とによって構成されている。記憶部12は、上記プログラムを格納する。また、記憶部12は、プロセッサ11、通信部13、入出力部14から入力される情報や演算結果を格納する。
通信部13は、他の装置と通信する機能を実現するものであり、例えば無線LAN、有線LANを実現する集積回路などにより構成されている。通信部13は、プロセッサ11の制御に基づいて、他の装置から受信した情報をプロセッサ11や記憶部12に入力し、他の装置に情報を送信する。
入出力部14は、表示出力デバイスをコントロールするビデオコントローラや、入力デバイスからのデータを取得するコントローラなどにより構成される。入力デバイスとしては、キーボード、マウス、タッチパネルなどがある。入出力部14は、プロセッサ11の制御に基づいて、表示出力デバイスに表示データを出力し、入力デバイスをユーザが操作することにより入力されるデータを取得する。表示出力デバイスは例えば外部に接続されるディスプレイ装置である。
次に、情報処理システムが提供する機能について説明する。図2は、情報処理システムが実現する機能を示すブロック図である。情報処理システムは、機能的に、初期データ決定部51と、学習部52と、性能評価部53と、問題検出部54と、データ変更部55と、モデル展開部56と、学習制御部57と、質問回答部58と、を含む。初期データ決定部51と、学習部52と、性能評価部53と、問題検出部54と、データ変更部55と、モデル展開部56と、学習制御部57との機能は、学習管理サーバ1に含まれるプロセッサ11によって記憶部12に格納されるプログラムが実行され、通信部13などを制御することにより実現される。質問回答部58は、問合せ対応サーバ2に含まれるプロセッサ11によって記憶部12に格納されるプログラムが実行され、通信部13などを制御することにより実現される。
また情報処理システムは、データとして、学習データセット61、質問ログ62をさらに含む。これらは主に記憶部12に格納されてもよいし、別のサーバにより実現される実現されるデータベースやストレージに格納されてもよい。
初期データ決定部51は、初期の学習データセット61を取得する。学習データセット61は複数の学習データを含んでいる。学習データのそれぞれは、質問データとその質問データに対する教師データであるラベルとを含む。
図3は、学習データセット61の一例を示す図である。質問データは例えば図3に示されるような質問のテキストであり、自然言語として入力された質問を表すデータである。質問データは質問のテキストが形態素解析などにより解析されることによって生成される解析結果であってもよい。学習の際に、学習部52が形態素解析を用いて、質問のテキストからなる質問データを単語群からなる質問データに変換し、変換された質問データが機械学習モデルに入力されてもよい。学習データに格納されるラベルは、予め定められた複数のラベルのうちいずれか1つである。ラベルは質問を入力したユーザの意図を示す情報であり、以下では「intent」と呼ぶこともある。あるラベルを含む学習データの数は複数であり、説明の容易のため、あるラベルを含む学習データの質問データ(質問テキスト)を、あるラベルに属する質問データ(質問テキスト)と記載する。
学習部52は、学習データセット61により機械学習モデルを学習させる。また学習データが更新されると、学習部52は更新された学習データセット61により機械学習モデルを再学習させる。
機械学習モデルは、質問データが入力されると、複数のラベルのうちいずれかを出力するよう構成されている。本実施形態では、機械学習モデル機械学習モデルとして、例えばCNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、BERT(Bidirectional Encoder Representations from Transformers)といったいわゆるDeep Learningを用い、形態素解析により分割された単語が入力される機械学習モデルが構築されてもよいし、形態素解析された単語から抽出された特徴的な単語により構成されるベクトルが入力されるランダムフォレスト、サポートベクタマシン(SVM)などの機械学習が実装された機械学習モデルが構築されてもよい。また機械学習モデルは外部のシステムにより提供される、その処理の詳細が不明なものであってもよい。
性能評価部53は、学習データセット61により学習された機械学習モデルに対してテストデータを入力し、そのテストデータが入力された機械学習モデルの出力に基づいて前記機械学習モデルの性能が所定の条件を満たしているか評価する。テストデータは、複数のレコードを含み、各レコードは、質問データとその質問データに対する回答であるラベルとを含む。例えば、性能評価部53は、ラベルごとに、正解率を集計し、その正解率が所定の閾値より低いラベルが存在するか否かにより性能が所定の条件を満たしているか評価してよい。
問題検出部54は、性能が所定の条件を満たしていないと評価された場合に、学習データセット61が予め定められた問題の検出条件を満たしているか判定する。
データ変更部55は、問題の検出条件を満たしていると判定された場合に、学習データセット61を更新する。問題の検出および更新の具体的な手法については後述する。
モデル展開部56は、性能が所定の条件を満たすと判定された場合は、学習済の機械学習モデルを実際の利用者からの質問に対して回答する問合せ対応サーバ2に展開する。機械学習モデルの展開は、学習済み機械学習モデルのパラメータを問合せ対応サーバ2へコピーすることにより行われてもよいし、学習済み機械学習モデルを含む仮想環境を問合せ対応サーバ2へコピーすることにより行われてもよい。また、クラウド上に構築された学習済の機械学習モデルへ実際の利用者からの問い合わせの質問データを入力するように質問データの入力先を切り替えることにより展開されてもよい。
学習制御部57は、初期データ決定部51、学習部52、性能評価部53、問題検出部54、データ変更部55を制御し、学習データセット61の整備および機械学習モデルの学習を制御する。また性能評価部53により性能が所定の条件を満たすと判定された場合は、モデル展開部56に学習済の機械学習モデルを展開するよう指示する。
質問回答部58は、利用者端末3から利用者が入力した質問を取得し、その質問に対する回答を出力する。また入力された質問を示す情報を質問ログ62に格納させる。
図4は、質問回答部58の機能的な構成を示すブロック図である。質問回答部58は機能的に、自然言語処理部71、対話管理部72、回答生成部73を含む。これらの機能は、問合せ対応サーバ2に含まれるプロセッサ11によって記憶部12に格納されるプログラムが実行され、通信部13などを制御することにより実現される。
自然言語処理部71は、いわゆる自然言語理解(NLU)を実現する機能である。自然言語処理部71は形態素解析を行い、自然言語処理部71は、形態素解析により質問のテキストから生成された質問データが入力され、ラベルを出力する機械学習モデルを含む。自然言語処理部71は、他のサーバにより実現される自然言語理解機能に対して質問のテキストまたは質問データを送信し、その結果を取得してもよい。なお、質問回答部58は利用者の音声により入力された質問音声を解析するASR(Automatic Speech Recognition)/STT(Speech to Text)機能をさらに含み、その出力が自然言語処理部71に入力されてもよい。
対話管理部72は、自然言語処理部71から出力されるラベルに基づいて、回答生成部73から質問に対する回答のテキストを取得し、回答テキストを利用者端末3へ送信する。なお、質問回答部58は回答テキストを音声に変換するTTS(Text to Speech)機能をさらに含み、質問回答部58は回答テキストの代わりに変換された音声を利用者端末3へ出力してもよい。
ここで、利用者からの質問およびその質問に対する回答を1ターンとして、問合せ対応サーバ2は、一連の複数のターンにより利用者の最終的に望む回答を出力するように構成されてよい。より具体的には、対話管理部72は、ある質問テキストまたは質問データに対して出力されるラベルに基づいて状態の遷移を管理し、回答生成部73にその遷移された状態に応じた回答を生成させてよい。例えば、1つめのターンにおける利用者の質問テキスト「パスワードを忘れた」に対して「forget_password」というラベルが出力された場合に、対話管理部72は回答生成部73に回答として「メールアドレスはわかりますか?(はい/いいえ)」を生成させ、次の利用者の質問テキスト「はい、わかります。」に対して「yes」というラベルが出力された場合に、対話管理部72は、対話管理部73に、「forget_password」から「yes」へのラベルの状態遷移に応じた回答「次のリンクからパスワードの再設定を行ってください。」を生成させてよい。
また、対話管理部72は質問テキストまたは質問データと、ラベルを判定できたか否かを示す情報と、判定されたラベルと、回答に対する利用者のフィードバックと、を質問ログ62に格納する。
回答生成部73は、対話管理部72の制御により、判定されたラベルに応じた回答テキストを生成する。なお、自然言語処理部71、対話管理部72、回答生成部73の処理の詳細は後述する。
以下では、初期データ決定部51、学習部52、性能評価部53、問題検出部54、データ変更部55、モデル展開部56、および、学習制御部57による機械学習モデルの学習および学習データセット61の準備についてさらに説明する。図5は、情報処理システムにおいて、機械学習モデルの学習に関する処理を概略的に示すフロー図である。
はじめに、初期データ決定部51は、学習制御部57による指示に基づいて、初期の学習データセット61およびテストデータのセット(以下ではテストデータセットと記載する)を取得する(ステップS101)。テストデータセットは複数のテストデータを含み、テストデータは、質問データと、その質問データに対して出力されるべきラベルとを含む。
次に、学習制御部57は学習部52の処理を開始させ、学習部52は、学習データセット61を用いて機械学習モデルを学習させる(ステップS102)。学習部52は、初めてステップS102が実行される際には初期データ決定部51により取得された学習データセット61により機械学習モデルを学習させる。
機械学習モデルが学習させると、学習制御部57は性能評価部53の処理を開始させ、性能評価部53は、学習済の機械学習モデルが性能条件を満たすか判定する(ステップS104)。より具体的には、性能評価部53は、複数のテストデータのそれぞれについて、学習済の機械学習モデルにテストデータに含まれる質問データを入力し、その出力がテストデータに含まれるラベルと同じであるか(正解であるか)判定する。そして、性能評価部53は学習データのラベルごとに正解である割合を算出し、算出された割合が判定閾値より低いラベルが存在するか判定する。性能評価部53は算出された割合が判定閾値より低いラベルが存在しない場合は性能条件を満たすと判定し、そうでない場合は性能条件を満たさないと判定する。なお、性能評価部53は機械学習モデルにより出力されたラベルごとに正解である割合を求め、その割合にも基づいて性能条件を満たすか否かを判定してもよい。
学習済の機械学習モデルが性能条件を満たさないと判定された場合には(ステップS104のN)、学習制御部57は改善ポリシーを調整する(ステップS105)。そして、学習制御部57は問題検出部54の処理を開始させ、問題検出部54は学習データセット61の問題点を検出する(ステップS106)。学習制御部57は、改善ポリシーに基づいて問題検出部54へ改善パラメータを渡し、問題検出部54はその改善パラメータに基づいて学習データセット61の問題点を検出してよい。改善ポリシーおよび改善パラメータの詳細については後述する。
問題検出部54の処理が行われると、学習制御部57はデータ変更部55の処理を開始させ、データ変更部55は、検出された問題点に応じて、学習データセット61を更新する(ステップS107)。そして、ステップS102へ戻り、学習制御部57は学習部52の処理を開始させ、学習部52は、更新された学習データセット61を用いて機械学習モデルを再学習させる。2回目以降のステップS103以降の処理は1回目と同様であるため説明を省略する。
一方、ステップS104において、学習済の機械学習モデルが性能条件を満たすと判定された場合には(ステップS104のY)、学習制御部57はモデル展開部56に処理を開始させ、モデル展開部56は学習済の機械学習モデルを問合せ対応サーバ2に展開する(ステップS108)。
問題検出部54が問題点を検出する検出手法の数、およびデータ変更部55がデータを更新する更新手法の数は、それぞれ複数である。図6は、問題検出部54の処理およびデータ変更部55の処理を説明する図である。検出処理の欄は、問題検出部54が学習データセット61の問題を検出する手法の種類を示し、問題の欄は、検出される問題の種類を示し、データ変更処理は検出された問題を改善するための学習データセット61の更新手法の種類を示している。図6に示される手法およびその手法において行われる処理の詳細について以下に記載する。
はじめに、「Data statistics」(データ解析)について記載する。図7は、データ解析に関する処理の一例を示すフロー図である。図7に示される処理は、ステップS105,S106,S107の処理の詳細のうち、データ解析に関わる処理を抜き出したものである。
図7に示される処理においては、はじめに、学習制御部57は、改善ポリシーに含まれる改善パラメータである、データ件数の上限値および下限値を決定する(ステップS201)。データ件数の上限値および下限値は、以前に用いられた上限値および下限値と異なる値となるように決定されてよい。また仮に他の問題検出手法についての改善パラメータが変更された場合には、前回の上限値および下限値を変更せず用いるようにしてもよい。上限値および下限値は、予め定められた候補値のうちいずれかが選択されることにより決定されてよい。
学習制御部57は、上限値および下限値を引数として問題検出部54のうちデータ解析のAPIを呼び出し、問題検出部54は、学習データセット61に含まれる学習データについて、ラベルごとに学習データの件数を集計する(ステップS202)。
上限値および下限値は、データ解析のAPIが呼び出される際のパラメータでなくてもよい。例えば、データ解析のAPIがラベルごとに学習データの件数を集計し、学習制御部57がそのラベルごとの学習データの件数に応じて上限値および下限値を決定してもよい。例えば、学習制御部57は、ラベルごとの学習データの件数の最大値や最小値を取得し、その最大値より所定の値だけ小さい値を上限値とし、最小値より所定の値だけ大きい値を下限値としてもよい。
データの件数が集計されると、学習制御部57は、集計された件数が上限値を超えるラベルが存在するか判定する(ステップS203)。
件数が上限値を超えるラベルが存在する場合には(ステップS203のY)、学習制御部57は、「Too many samples」の問題が検出されたものとして、データ変更部55のうち「Sample Reduction」(学習データ削減)の処理のAPIを、件数が上限値を超えるラベルおよび上限値を引数として呼び出す。するとデータ変更部55は、件数が上限値を超えるラベルについて、学習データの件数を削減する(ステップS204)。データ変更部55は、上限値を超えるラベルを含む複数の学習データのそれぞれについて、同じラベルを含む質問データとの類似度の和を算出し、その和によりソートされた順位に基づいて削除する学習データを決定してもよい。例えば予め定められた順位の学習データが削除されてよい。また単に削除される学習データがランダムに決定されてもよい。件数が上限値を超えるラベルが存在しない場合はステップS204の処理はスキップされる。
一方、件数が下限値より低いラベルが存在する場合には(ステップS205のY)、学習制御部57は、「Lack of samples」の問題が検出されたものとして、データ変更部55のうち「New sample collection」(学習データ取得)の処理のAPIを、下限値より低いラベルおよび下限値を引数として呼び出す。学習データ取得の処理では、データ変更部55は質問ログ62から、そのラベルに対応する質問データを抽出し、学習データセット61に抽出された質問データとそのラベルとを含む学習データを追加する。また追加の対象となる質問データは、学習データセット61においてそのラベルに対応する質問データと、質問ログ62に格納された質問データとに基づいて、質問ログ62から抽出される。これらの処理の詳細については後述する。
図8は、学習データセット61の件数の調整を説明する図である。図8には3つのグラフが記載されており、各グラフの縦軸が学習データの件数であり、ラベルごとに学習データの件数が示されている。図8においてNmaxは件数の上限値、Nminは件数の下限値を示す。
図8の上のグラフはデータ解析において求められたラベルごとの学習データ件数を示す。この例では2つのラベルについて学習データの件数が上限値を越えているので、その2つのラベルについて「Sample Reduction」(学習データ削減)の処理が実行され、学習データの数が上限値以下となるよう学習データセット61が変更される(図8の真ん中のグラフの左側2つのラベル参照)。また、この例では4つのラベルについて学習データの件数が下限値より低いので、その4つのラベルについて「New sample collection」(データ追加)の処理が実行され、学習データの数が下限値以上となるよう学習データセット61が変更される(図8の下のグラフの右側4つのラベル参照)。
ラベルによる学習データの件数の違いが大きい場合に、機械学習モデルが、必要以上に件数の多いラベルを出力する傾向がある。このように学習データの件数を調整することにより、機械学習モデルの精度を確保することが可能になる。
ここで、機械学習モデルが展開された後における、問合せ対応サーバ2の質問回答部58の処理と、質問ログ62について説明する。図9は、質問回答部58の処理の一例を示すフロー図である。はじめに、質問回答部58の自然言語処理部71は、利用者からの入力に基づいて質問データを取得する(ステップS501)。自然言語処理部71は、利用者からの入力される質問テキストをそのまま質問データとして取得してもよいし、質問テキストを形態素解析して質問データを取得してもよい。
自然言語処理部71は、取得された質問データを学習済の機械学習モデルに入力する(ステップS502)。そして、機械学習モデルがラベルを決定できない場合には(ステップS503のN)、対話管理部72は、質問に回答できない旨のメッセージを利用者に向けて送信し、質問ログ62に質問データを示す情報を対応ラベル未検出の旨とともに格納する(ステップS504)。
機械学習モデルがラベルを決定できた場合には(ステップS503のY)、対話管理部72は決定されたラベルを回答生成部73に渡し、回答生成部73は、決定されたラベルに対する回答を生成する(ステップS505)。回答生成部73は単にラベルと関連付けて記憶された回答のテキストを取得することにより回答を生成してもよいし、回答生成部73は利用者または質問対象となる組織と関連付けて記録された情報を用いて動的に回答を生成してもよい。
対話管理部72は、生成された回答を利用者端末3へ出力する(ステップS506)。ここで利用者端末3は、回答とともに、この回答が質問に対して適切であるか否かを入力させる画面などを出力し、利用者からの入力を問合せ対応サーバ2へ送信する。対話管理部72は、利用者端末3から、回答が適切であるか否かを示すフィードバックの情報を取得する(ステップS507)。回答が適切でないことを示す情報を取得した場合には(ステップS507のN)、対話管理部72は質問ログ62に質問データを示す情報、決定されたラベル、回答が適切でない旨を格納する(ステップS509)。回答が適切であることを示す情報を取得した場合には(ステップS507のY)、対話管理部72は質問ログ62に質問データを示す情報、決定されたラベル、回答が適切である旨を格納する(ステップS510)。
図10は、質問ログ62の一例を示す図である。「ユーザ質問」は、質問データを示す情報であり、利用者により入力された質問のテキストである。「対応ラベル検出」は、機械学習モデルがラベルを決定できたか否かを示す情報であり、その値については「Yes」がラベルを決定できた旨を、「No」がラベルを決定できなかった旨を示す。「推測されたラベル」は機械学習モデルにより決定されたラベルである。「回答適切性」は利用者からの回答が適切であるか否かを示すフィードバックであり、その値については「Yes」は回答が適切であり、「No」は回答が適切でないことを示す。
質問ログ62に格納されるこれらの情報は、以下に説明される問題検出部54およびデータ変更部55の処理の一部で用いられる。質問ログ62は機械学習モデルの展開後に生成されるものであるが、例えば状況の変化などによりその機械学習モデルの学習をやり直す場合に質問ログ62を用いた処理をすることは可能である。
以下では、「New sample collection」(データ追加)の処理についてさらに詳細に説明する。図11は、データ追加の処理の一例を示すフロー図である。図11の処理は、学習データセット61において件数が少ないとされたラベルごとに実行される。
データ変更部55は、学習データセット61から、処理対象となるラベルを含む学習データを選択する(ステップS301)。そしてデータ変更部55は、選択された学習データのそれぞれについて、質問ログ62に含まれる複数のユーザ質問のそれぞれと、選択された学習データに含まれる質問データとの類似度を算出する(ステップS302)。なお、選択された学習データのうち1つと、複数のユーザ質問のうち1つとのすべての組み合わせについて類似度が算出されてよい。
データ変更部55は、ユーザ質問のテキストから形態素解析などにより抽出されるキーワード、または、質問データに含まれるキーワードにより文章ベクトルを生成し、生成される文章ベクトルの類似度を算出することにより、ユーザ質問と質問データとの類似度を算出してよい。また、いわゆるDeep Learningによりテキストを直接的に文章ベクトルに変換する機械学習モデルを予め構築し、データ変更部55は、その機械学習モデルにユーザ質問のテキストと質問データのテキストとを入力し、出力される文章ベクトルの類似度を算出してもよい。
類似度が算出されると、データ変更部55は、複数のユーザ質問のうち、第1類似閾値(例えば0.9)より大きい類似度が算出された学習データの数がN(例えば3)以上のものを抽出する(ステップS303:第1手法)。これは、多くの学習データに類似する質問を抽出する処理である。
次に、データ変更部55は、複数のユーザ質問のうち、第1類似閾値より大きい類似度が算出された学習データの数がM(例えば1)以下のものを抽出する(ステップS304:第2手法)。これは、少ない学習データに類似する質問を抽出する処理である。
次に、データ変更部55は、複数のユーザ質問のうち、第2類似閾値(例えば0.6)より大きく第1類似閾値未満の類似度が算出された学習データの数が1以上のものを抽出する(ステップS305:第3手法)。これは、学習データにおけるラベルに対応する質問の範囲を拡げるための質問を抽出する処理である。
データ変更部55は、ステップS303からS305の処理により抽出されたユーザ質問に基づく質問データと、処理対象となるラベルとを含む学習データを、学習データセット61に追加する(ステップS306)。
なお、ステップS306において抽出されたユーザ質問の数が、下限値から処理対象のラベルにおける学習データの件数を引いた値(追加予定数)より大きい場合には、データ変更部55は抽出されたユーザ質問から追加予定数のユーザ質問を選択し、選択されたユーザ質問について学習データを追加してよい。データ変更部55は、この処理において、ランダムにユーザ質問を選択してもよいし、第1から第3手法のそれぞれについて予め基準割合を設定しておき、第1から第3手法のそれぞれのうち、抽出されたユーザ質問の数を抽出された全体のユーザ質問の数で割って算出される割合が、基準割合を超えるもので抽出されたユーザ質問を削減することにより追加予定数のユーザ質問を選択してもよい。
図12は、類似度とユーザ質問の抽出との関係を説明する図である。図12の例において、学習データのレコードと質問ログ62のレコードとをつなぐ実線は、それらのレコードから算出される類似度が第1類似閾値以上であることを示し、破線は、それらのレコードから算出される類似度が第2類似閾値以上で第1類似閾値未満であることを示す。線がない場合は第2類似閾値以上の類似度が算出されなかったことを示す。
Nが3でありMが1であるとすると、図12に示される質問ログ62に含まれる4つのユーザ質問のうち、1番目のユーザ質問は3つ(N以上)の質問テキストとの類似度が第1類似閾値以上であるため第1手法により抽出される。2番目のユーザ質問は1つ(M以下)の質問テキストとの類似度が第1類似閾値以上であるため第2手法により抽出される。3番目のユーザ質問は、1つの質問テキストとの類似度が第2類似閾値以上であるため、第3手法により抽出される。単に多くの学習データの質問テキストと類似度の高いユーザ質問だけでなく、他のユーザ質問についても抽出することにより、ラベルに対応する質問が偏ることによる精度の低下を防ぐことができる。
「New sample collection」の処理は、テストデータセットの整備に用いられてもよい。例えば、テストデータセットに含まれるテストデータについてデータ件数の少ないラベルが特定され、そのラベルについて「New sample collection」の処理が実行されてもよい。この場合はすべての処理において学習データセット61の代わりにテストデータセットを用いてよい。
ユーザ質問の抽出は、他の手法により行われてもよい。例えば、学習データセット61を用いて、ユーザ質問が所定対象のラベルに対応するか否かを示すスコアを算出する評価用機械学習モデルを学習し、データ変更部55がその評価用機械学習モデルに質問ログ62のユーザ質問を入力した際に出力されるスコアが閾値を超えるか否かに基づいて、ユーザ質問を抽出してもよい。
また、いわゆるディープラーニングにより、質問テキストが入力されると文章ベクトルを抽出する機械学習モデルを構築し、データ変更部55は、その機械学習モデルに学習データセット61に含まれ処理対象のラベルとともに学習データとして格納される質問テキストを入力し、出力された文章ベクトルの平均を取ってよい。さらに、データ変更部55は質問ログ62中のユーザ質問をその機械学習モデルに入力し、出力される文章ベクトルと、平均との類似度が閾値を超えるか否かに基づいて、ユーザ質問を抽出してもよい。
次に、「Overlapped samples」の問題に対処するための「Overlap detection」および「Overlap resolution」の処理について説明する。問題検出部54は、「Overlap detection」のAPIが呼び出されると、互いに類似する質問データでありながら異なるラベルが設定された学習データを検出する。より具体的には、問題検出部54は、性能評価部53によって正解率が閾値より低いと判定されたラベル(対象ラベル)に属する質問文のそれぞれ(対象質問文と記載する)について、以下の2つの処理を実行する。1つ目の処理は、対象ラベルに属する他の質問文と対象質問文との類似性を示す第1指標を算出する処理である。2つめの処理は、他のラベルに属する質問文のそれぞれと対象質問文との類似性を示す第2指標を算出する処理である。
そして、「Overlap resolution」のAPIが呼び出されたデータ変更部55は、対象質問文について第2指標が他のラベルに属する質問文のいずれかとの類似を示し、第1指標が対象ラベルに属する他の質問文との類似度が基準状態より低いことを示す場合に、その対象質問文を含む学習データを学習データセット61から削除する。
図3に示される学習データセット61において、4番目の学習データと、6番目の学習データは、質問の意味が非常に近いが異なるラベルが付与されている。このような場合には機械学習モデルがうまく学習できず、出力されるラベルの正確性が低下する。このような場合に、学習データのうち不適切な学習データを削除することで、機械学習モデルの精度を向上させることができる。
「Lack of intents」の問題に対処するための「Out-of-scope」および「Create intent」の処理について説明する。「Out-of-scope」のAPIが呼び出された問題検出部54は、質問ログ62中に、ラベルが決定されなかったユーザ質問の数が閾値を超えるか判定する。閾値を超える場合には、質問に対応するラベルが不足している可能性がある。
そして、「Create intent」のAPIが呼び出されたデータ変更部55は、ラベルが決定されなかった複数のユーザ質問のテキストをクラスタリングし、所属するユーザ質問の件数が所定の値を超えるクラスタがある場合に、そのクラスタに属するユーザ質問をラベル候補として学習管理サーバ1の管理者に出力する。管理者は、出力された候補に基づいて追加するラベルと、出力されたユーザ質問のうち追加されたラベルに対応するユーザ質問とを入力する。データ変更部55は入力されたユーザ質問とラベルとを含む学習データを追加する。
図10に示される質問ログ62のうち、4番目のデータは、機械学習モデルが対応するラベルを判定できていない。このようなケースが多数ある場合に、「Out-of-scope」および「Create intent」の処理によってより容易に学習データを追加することが可能になる。
「Misunderstanding」の問題に対処するための「Prediction failure」の処理について説明する。「Prediction failure」のAPIが呼び出された問題検出部54は、質問ログ62中の、回答が適切でなかったとされるユーザ質問の数と、ユーザ質問の総数とをラベルごとに集計する。そして、ラベルごとに、回答が適切でないユーザ質問の数を総数で割ることにより求められる指標値が所定の閾値を超えるか否か判定する。閾値を超える場合はそのラベルについて判定ミスが多いことを示す。
閾値を超えるラベルが存在する場合には、「New sample collection」のAPIが呼び出され、データ変更部44は、そのラベルの学習データ件数が現在の件数より多くなるように、質問ログ62からユーザ質問を抽出し、ユーザ質問を含む学習データを学習データセット61に追加する。
図10に示される質問ログ62のうち、5番目のデータは、機械学習モデルが出力するラベルが適切でない。このようなケースが多数ある場合に、「Prediction failure」および「New sample collection」の処理によって学習データセット61を調整し、容易に機械学習モデルの精度を向上させることが可能になる。
ここまで説明したように、機械学習モデルの評価と、その評価に応じた学習データセット61の問題の検出と学習データセット61の変更とを統制された環境で行うことにより、管理者がより容易に機械学習モデルの性能を確保するために学習データセット61を準備することができる。また機械学習モデルの学習に必要な時間が短縮されるため、環境の変化に応じて機械学習モデルを用いた質問対応を改良することが容易になる。
1 学習管理サーバ、2 問合せ対応サーバ、3 利用者端末、11 プロセッサ、12 記憶部、13 通信部、14 入出力部、51 初期データ決定部、52 学習部、53 性能評価部、54 問題検出部、55 データ変更部、56 モデル展開部、57 学習制御部、58 質問回答部、61 学習データセット、62 質問ログ、71 自然言語処理部、72 対話管理部、73 回答生成部。

Claims (12)

  1. 入力データと当該入力データに対する教師データであるラベルとを含む学習データのセットにより機械学習モデルを学習させる学習サーバと、前記学習された機械学習モデルにユーザから入力される入力データを入力し、当該機械学習モデルにより出力されるラベルに基づいて応答データを出力する応答サーバとを含む情報処理システムにおいて、
    前記学習データのセットを取得する初期データ取得手段と、
    前記学習データのセットにより前記機械学習モデルを学習させる学習手段と、
    前記学習データのセットにより学習された前記機械学習モデルに対してテストデータを入力し、前記テストデータが入力された機械学習モデルの出力に基づいて前記機械学習モデルの性能が所定の条件を満たしているか評価する評価手段と、
    前記機械学習モデルの性能が前記所定の条件を満たしていると評価された場合に、前記学習された機械学習モデルを前記応答サーバに展開する展開手段と、
    前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、前記学習データのセットを更新するデータ更新手段と、
    前記更新された学習データのセットにより前記機械学習モデルを再学習させる再学習手段と、
    を含み、
    前記評価手段の評価に応じて前記データ更新手段、前記再学習手段、前記評価手段の処理を繰り返
    前記データ更新手段は、前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、改善パラメータに基づいて前記学習データのセットを更新し、
    前記学習データのセットの更新に応じて前記改善パラメータを含む改善ポリシーを更新する更新手段をさらに含む、
    情報処理システム。
  2. 請求項1に記載の情報処理システムにおいて、
    前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、前記学習データのセットが検出条件を満たしているか判定する検出手段、をさらに含み、
    前記データ更新手段は、前記検出条件を満たしていると判定された場合に、前記学習データのセットを更新する、
    情報処理システム。
  3. 請求項2に記載の情報処理システムにおいて、
    前記検出手段は、前記学習データのセットにおけるラベルごとの入力データの数が検出条件を満たしているか判定し、
    前記データ更新手段は、前記検出条件を満たしていると判定された場合に、前記学習データのセットを更新する、
    情報処理システム。
  4. 請求項2に記載の情報処理システムにおいて、
    前記ユーザから入力データが入力された場合に、前記入力データをログストレージに記憶させるログ手段をさらに含み、
    前記検出手段は、前記学習データのセットについて入力データの数が不足するラベルが存在するか判定し、
    前記データ更新手段は、前記入力データの数が不足するラベルが存在すると判定された場合に、前記ログストレージに格納された入力データから、当該ラベルに対応する入力データを抽出し、前記学習データのセットに前記抽出された入力データと当該ラベルとを含む学習データを追加する、
    情報処理システム。
  5. 請求項に記載の情報処理システムにおいて、
    前記データ更新手段は、前記入力データの数が不足するラベルが存在すると判定された場合に、前記学習データのセットにおいて当該ラベルに対応する入力データと、前記ログストレージに格納された入力データとに基づいて、前記ログストレージに格納された入力データから、当該ラベルに対応する入力データを抽出する、
    情報処理システム。
  6. 請求項1からのいずれかに記載の情報処理システムにおいて、
    前記ユーザから入力データが入力された場合に、前記入力データをログストレージに記憶させるログ手段と、
    前記ログストレージに格納された入力データから、いずれかのラベルに対応する入力データを抽出し、前記学習データに前記抽出された入力データと当該ラベルとのセットを追加するテストデータ追加手段と、
    をさらに含む情報処理システム。
  7. 請求項2に記載の情報処理システムにおいて、
    前記検出手段は、前記学習データのセットについて入力データの数が上限値を超えるラベルが存在するか判定し、
    前記データ更新手段は、前記入力データの数が上限値を超えるラベルが存在すると判定された場合に、前記学習データのセットにおける当該ラベルに対応する前記入力データの件数を削減する、
    情報処理システム。
  8. 請求項2に記載の情報処理システムにおいて、
    前記検出手段は、正解率が閾値より低いラベルに属する入力データである対象入力データと当該ラベルに属する他の入力データとの類似性を示す第1指標と、当該ラベルと異なるラベルに属する入力データと前記対象入力データとの類似性を示す第2指標とを算出し、
    前記データ更新手段は、前記第2指標が、前記対象入力データと前記対象入力データが属するラベルと異なるラベルに属する入力データのいずれかと類似することを示し、前記第1指標が前記対象入力データが属するラベルに属する他の入力データとの類似度が基準状態より低いことを示す場合に、前記対象入力データを前記学習データのセットから削除する、
    情報処理システム。
  9. 請求項2に記載の情報処理システムにおいて、
    前記検出手段は、前記ユーザから入力され前記機械学習モデルに入力される入力データのうち、前記機械学習モデルによりラベルが決定されなかった入力データの件数が閾値を超えるか否か判定し、
    前記データ更新手段は、前記ラベルが決定されなかった入力データをクラスタに分類し、分類されたクラスタに基づいてラベル候補を管理者に提案し、
    前記データ更新手段は、前記管理者が前記ラベル候補に基づいて入力するラベルおよび入力データのセットを前記学習データに追加する、
    情報処理システム。
  10. 請求項2に記載の情報処理システムにおいて、
    前記ユーザから入力データが入力された場合に、前記入力データをログストレージに記憶させるログ手段をさらに含み、
    前記検出手段は、前記ユーザから入力され前記機械学習モデルに入力される入力データのうち、前記機械学習モデルにより決定されたラベルに対して当該ユーザが適切でないと回答した入力データの件数に基づいて前記学習データに追加する対象となるラベルを決定し、
    前記データ更新手段は、前記ログストレージに格納された入力データから、前記対象となるラベルに対応する入力データを抽出し、前記学習データのセットに前記抽出された入力データと当該ラベルとを含む学習データを追加する、
    情報処理システム。
  11. 入力データと当該入力データに対する教師データであり応答データの作成に用いられるラベルとを含む学習データのセットを取得するステップと、
    前記学習データのセットにより機械学習モデルを学習させるステップと、
    前記学習データのセットにより学習された前記機械学習モデルに対してテストデータを入力し、前記テストデータが入力された機械学習モデルの出力に基づいて前記機械学習モデルの性能が所定の条件を満たしているか評価するステップと、
    前記機械学習モデルの性能が前記所定の条件を満たしていると評価された場合に、前記学習された機械学習モデルにユーザから入力される入力データを入力し、当該機械学習モデルにより出力されるラベルに基づいて応答データを出力する応答サーバに、前記性能が評価された機械学習モデルを展開するステップと、
    前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、前記学習データのセットを更新するステップと、
    前記更新された学習データのセットにより前記機械学習モデルを再学習させるステップと、
    を含み、
    前記学習データのセットを更新するステップでは、前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、改善パラメータに基づいて前記学習データのセットを更新し、
    前記評価に応じて前記学習データのセットを更新するステップと、前記機械学習モデルを再学習させるステップと、前記機械学習モデルの性能を評価するステップとを繰り返
    前記学習データのセットの更新に応じて前記改善パラメータを含む改善ポリシーを更新するステップをさらに含む、
    情報処理方法。
  12. 入力データと当該入力データに対する教師データであり応答データの作成に用いられるラベルとを含む学習データのセットを取得する初期データ取得手段と、
    前記学習データのセットにより機械学習モデルを学習させる学習手段と、
    前記学習データのセットにより学習された前記機械学習モデルに対してテストデータを入力し、前記テストデータが入力された機械学習モデルの出力に基づいて前記機械学習モデルの性能が所定の条件を満たしているか評価する評価手段と、
    前記機械学習モデルの性能が前記所定の条件を満たしていると評価された場合に、前記学習された機械学習モデルにユーザから入力される入力データを入力し、当該機械学習モデルにより出力されるラベルに基づいて応答データを出力する応答サーバに、前記性能が評価された機械学習モデルを展開する展開手段と、
    前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、前記学習データのセットを更新するデータ更新手段と、
    前記更新された学習データのセットにより前記機械学習モデルを再学習させる再学習手段と、
    を含み、
    前記評価手段の評価に応じて前記データ更新手段、前記再学習手段、前記評価手段の処理を繰り返
    前記データ更新手段は、前記機械学習モデルの性能が前記所定の条件を満たしていないと評価された場合に、改善パラメータに基づいて前記学習データのセットを更新し、
    前記学習データのセットの更新に応じて前記改善パラメータを含む改善ポリシーを更新する更新手段をさらに含む、
    情報処理装置。
JP2020213626A 2020-12-23 2020-12-23 情報処理システム、情報処理方法および情報処理装置 Active JP7101752B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020213626A JP7101752B2 (ja) 2020-12-23 2020-12-23 情報処理システム、情報処理方法および情報処理装置
US17/645,740 US20220198337A1 (en) 2020-12-23 2021-12-22 Information processing system, information processing method and information processing device
EP21216740.7A EP4020339A1 (en) 2020-12-23 2021-12-22 Information processing system, information processing method and information processing device
CN202111588796.3A CN114742230A (zh) 2020-12-23 2021-12-23 信息处理系统、信息处理方法及信息处理装置
JP2022108497A JP7402277B2 (ja) 2020-12-23 2022-07-05 情報処理システム、情報処理方法および情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020213626A JP7101752B2 (ja) 2020-12-23 2020-12-23 情報処理システム、情報処理方法および情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022108497A Division JP7402277B2 (ja) 2020-12-23 2022-07-05 情報処理システム、情報処理方法および情報処理装置

Publications (2)

Publication Number Publication Date
JP2022099685A JP2022099685A (ja) 2022-07-05
JP7101752B2 true JP7101752B2 (ja) 2022-07-15

Family

ID=79024698

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020213626A Active JP7101752B2 (ja) 2020-12-23 2020-12-23 情報処理システム、情報処理方法および情報処理装置
JP2022108497A Active JP7402277B2 (ja) 2020-12-23 2022-07-05 情報処理システム、情報処理方法および情報処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022108497A Active JP7402277B2 (ja) 2020-12-23 2022-07-05 情報処理システム、情報処理方法および情報処理装置

Country Status (4)

Country Link
US (1) US20220198337A1 (ja)
EP (1) EP4020339A1 (ja)
JP (2) JP7101752B2 (ja)
CN (1) CN114742230A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220215393A1 (en) * 2021-01-04 2022-07-07 Capital One Services, Llc Real-time updating of a security model
WO2024005313A1 (ko) * 2022-06-30 2024-01-04 삼성전자 주식회사 전자 장치의 학습 모델을 갱신하는 서버 및 그의 동작 방법
WO2024089064A1 (en) 2022-10-25 2024-05-02 Continental Automotive Technologies GmbH Method and wireless communication system for gnb-ue two side control of artificial intelligence/machine learning model
CN117596087A (zh) * 2024-01-19 2024-02-23 深圳市安络科技有限公司 一种服务模拟方法、装置、计算机设备及存储介质
JP7492188B1 (ja) 2024-03-25 2024-05-29 日本製鉄株式会社 学習システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001888A (ja) 2013-06-17 2015-01-05 富士ゼロックス株式会社 情報処理プログラム及び情報処理装置
JP2018169672A (ja) 2017-03-29 2018-11-01 三菱電機インフォメーションシステムズ株式会社 教師画像を生成する方法、コンピュータおよびプログラム
JP2019095217A (ja) 2017-11-17 2019-06-20 ファナック株式会社 外観検査装置
JP2019212073A (ja) 2018-06-06 2019-12-12 アズビル株式会社 画像判別装置および方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7548847B2 (en) 2002-05-10 2009-06-16 Microsoft Corporation System for automatically annotating training data for a natural language understanding system
US10614373B1 (en) 2013-12-23 2020-04-07 Groupon, Inc. Processing dynamic data within an adaptive oracle-trained learning system using curated training data for incremental re-training of a predictive model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001888A (ja) 2013-06-17 2015-01-05 富士ゼロックス株式会社 情報処理プログラム及び情報処理装置
JP2018169672A (ja) 2017-03-29 2018-11-01 三菱電機インフォメーションシステムズ株式会社 教師画像を生成する方法、コンピュータおよびプログラム
JP2019095217A (ja) 2017-11-17 2019-06-20 ファナック株式会社 外観検査装置
JP2019212073A (ja) 2018-06-06 2019-12-12 アズビル株式会社 画像判別装置および方法

Also Published As

Publication number Publication date
JP7402277B2 (ja) 2023-12-20
JP2022099685A (ja) 2022-07-05
US20220198337A1 (en) 2022-06-23
CN114742230A (zh) 2022-07-12
JP2022125222A (ja) 2022-08-26
EP4020339A1 (en) 2022-06-29

Similar Documents

Publication Publication Date Title
JP7101752B2 (ja) 情報処理システム、情報処理方法および情報処理装置
CN111046152B (zh) Faq问答对自动构建方法、装置、计算机设备及存储介质
KR101925440B1 (ko) 가상현실 기반 대화형 인공지능을 이용한 화상 대화 서비스 제공 방법
WO2020135194A1 (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
WO2020174826A1 (ja) 回答生成装置、回答学習装置、回答生成方法、及び回答生成プログラム
CN111191450B (zh) 语料清洗方法、语料录入设备及计算机可读存储介质
CN111984766B (zh) 缺失语义补全方法及装置
KR20180108400A (ko) 전자 장치, 그의 제어 방법 및 비일시적 컴퓨터 판독가능 기록매체
US11636272B2 (en) Hybrid natural language understanding
TW201011735A (en) Method and system for generating dialogue managers with diversified dialogue acts
WO2024066920A1 (zh) 虚拟场景的对话方法、装置、电子设备、计算机程序产品及计算机存储介质
CN116975214A (zh) 文本生成方法、装置、存储介质及计算机设备
CN110955765A (zh) 智能助理的语料构建方法、装置、计算机设备和存储介质
Kennington et al. Situated incremental natural language understanding using Markov Logic Networks
CN117271745A (zh) 一种信息处理方法、装置及计算设备、存储介质
KR20230116143A (ko) 상담 유형 분류 시스템
CN112002306B (zh) 语音类别的识别方法、装置、电子设备及可读存储介质
Sagar et al. Dialog management system based on user persona
CN114239565A (zh) 一种基于深度学习的情绪原因识别方法及系统
JP6997046B2 (ja) アノテーション支援装置
US11984113B2 (en) Method and server for training a neural network to generate a textual output sequence
CN112885338B (zh) 语音识别方法、设备、计算机可读存储介质及程序产品
CN116913278B (zh) 语音处理方法、装置、设备和存储介质
KR102383926B1 (ko) 챗봇 시스템의 제어 방법, 장치 및 프로그램
US11011174B2 (en) Method and system for determining speaker-user of voice-controllable device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220705

R150 Certificate of patent or registration of utility model

Ref document number: 7101752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150