JP7261096B2 - 計算機システム、モデル生成方法及びモデル管理プログラム - Google Patents

計算機システム、モデル生成方法及びモデル管理プログラム Download PDF

Info

Publication number
JP7261096B2
JP7261096B2 JP2019110039A JP2019110039A JP7261096B2 JP 7261096 B2 JP7261096 B2 JP 7261096B2 JP 2019110039 A JP2019110039 A JP 2019110039A JP 2019110039 A JP2019110039 A JP 2019110039A JP 7261096 B2 JP7261096 B2 JP 7261096B2
Authority
JP
Japan
Prior art keywords
model
user
application
group
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019110039A
Other languages
English (en)
Other versions
JP2020201445A (ja
Inventor
謙太 山崎
功 田澤
賢知 受田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019110039A priority Critical patent/JP7261096B2/ja
Priority to US16/829,562 priority patent/US20200395004A1/en
Publication of JP2020201445A publication Critical patent/JP2020201445A/ja
Application granted granted Critical
Publication of JP7261096B2 publication Critical patent/JP7261096B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Stored Programmes (AREA)

Description

本発明は、学習データを用いて生成されるモデルを利用者に応じてカスタマイズする技術に関する。
近年では、機械学習の進歩により音声認識技術も発達し、その技術を利用したサービスやアプリケーションが増加してきた。以下、アプリケーションをアプリと略すことがある。さらに、そのような音声認識技術を活用したアプリをクラウドコンピューティングのサービスとして提供する形態も一般化してきた。
音声認識技術の分野では、認識対象の音声の音響的特徴を分析するための音響モデルと、単語の並び等の言語的特徴を分析するための言語モデルを利用する方法が広く知られている。以下、モデルと称した場合には音響モデルと言語モデルの両方が含まれる。
音声認識技術を利用したアプリでは、そのアプリが標準として提供するモデルに対して、アプリを利用するユーザが独自にカスタマイズすることが可能である。例えば、あるユーザのよく使う用語をモデルに追加することで、そのユーザの発話した音声をより精度良く認識することが期待される。
特許文献1に開示されたシステムでは、複数のドメインに対応する複数の言語モデリングコンポーネントのリストを利用者に提示し、カスタマイズに利用する言語モデリングコンポーネントを選択させる。利用者がリストから言語モデリングコンポーネントを選択すると、システムは、選択された言語モデリングコンポーネントの組合せとヒントとに基づいてカスタマイズした言語モデルを生成する。
特表2017-515141号公報
特許文献1に開示された技術では、利用者に、複数の言語モデリングコンポーネントを提示して、カスタマイズに利用する言語モデリングコンポーネントを選択させる。しかし、例えば他の利用者がカスタマイズした複数の既存の言語モデルを提示された利用者が、提示された言語モデルのうちどの言語モデルが自分の音声を認識する精度の向上に寄与するか判別できるとは限らない。また、同じアプリを利用している利用者が多数存在する場合、多数の言語モデルが利用者に提示されることになると考えられる。そうなると、利用者が適切に言語モデルを選択することが困難となる場合がある。
本開示のひとつの目的は、学習データを用いて生成されるモデルを用いてユーザに好適な処理結果を提供することを支援する技術を提供することである。
本開示のひとつの態様による計算機システムは、学習データを用いてモデルを生成するモデル生成システムと、前記モデルによる予測処理を利用するユーザに応じて作成されたモデル生成用データを前記ユーザに対応付けて記録し、前記ユーザを所定のグループ条件に従ってグループ分けし、前記グループに属するユーザに応じて作成されたモデル生成用データを含む学習データを前記モデル生成システムに与えて前記グループに対応する統合モデルを生成させるモデル管理システムと、を有する。
本開示のひとつの態様によれば、学習データを用いて生成されるモデルを用いてユーザに好適な処理結果を提供することを支援することができる。
機械学習システムの実施の一形態を示す図である。 図1に示したモデル管理計算機、アプリ管理計算機、アプリ実行計算機、モデル生成計算機および評価実行計算機に共通する要素の構成例を示す図である。 図1に示したモデル管理テーブルの構成例を示す図である。 図1に示した利用者情報テーブルの構成例を示す図である。 図1に示したアプリ情報テーブルの構成例を示すである。 図1に示したモデル情報テーブルの構成例を示す図である。 図1に示した学習データテーブルの構成例を示す図である。 図1に示したグループ情報テーブルの構成例を示す図である。 図1に示したグループ条件テーブルの構成例を示す図である。 図1に示した統合条件テーブルの構成例を示す図である。 図1に示したモデル採用条件テーブルの構成例を示す図である。 図1に示した評価結果テーブルの構成例を示す図である。 図1に示したモデルの管理計算機が有するモデル管理プログラムが実行する処理を説明するためのフローチャートである。 図1に示したモデル生成計算機が有するモデル生成プログラムが実行する処理を説明するためのフローチャートである。 図1に示した評価実行計算機が有する評価実行プログラムが実行する処理を説明するためのフローチャートである。 図1に示したモデル管理計算機が有するグループ管理プログラムが実行する処理を説明するためのフローチャートである。 図1に示したモデル管理計算機が有する通知管理プログラムが実行する処理を説明するためのフローチャートである。 図1の示したモデル管理計算機が有するモデル統合プログラムが実行する処理を説明するためのフローチャートである。 図1に示した通知管理プログラムが、モデル生成の通知をアプリ利用者のアプリに表示した画面例を示す図である。
以下に本実施形態を図面を用いて説明する。なお、本形態では、会議の音声データを音声認識することで議事録作成を支援するアプリを取り上げ、アプリ利用者が使用するモデルを改善するカスタムモデル管理システムについて説明するが、本形態は、本開示の説明のための例示であり、同様の処理が可能な他の構成あるいは形態を制限するものではない。
図1は、本実施形態による機械学習システムを示す図である。
本形態は図1に示すように、モデル管理システム2000と、アプリケーション管理システム3000と、モデル生成システム4000と、評価システム5000とを有する。
アプリ利用者1000は、1つ以上の利用者計算機1010を用いて、アプリ実行計算機3200で実行される、1つ以上のアプリP3000を利用する。利用者計算機1010は、1つ以上のネットワーク1100およびネットワーク機器1200を介して他のシステムと通信する。
モデル管理システム2000は、1つ以上のモデル管理計算機2100を備え、モデルの管理を担い、アプリ利用者1000の要求を受け付ける。具体的には、モデルによる予測処理を利用するアプリ利用者1000に応じて作成されたモデル生成用データをアプリ利用者1000に対応付けて記録し、アプリ利用者1000を所定のグループ条件に従ってグループ分けし、グループに属するアプリ利用者1000に応じて作成されたモデル生成用データを含む学習データをモデル生成システム4000に与えてグループに対応する統合モデルを生成させる。モデル管理システム2000は、1つであってもよいし複数あってもよい。
モデル管理計算機2100は、モデル管理の手段を提供するモデル管理プログラムP2000と、ユーザのグループを管理する手段を提供するグループ管理プログラムP2100と、アプリ利用者1000への通知の手段を提供する通知管理プログラムP2200と、モデルを統合する手段を提供するモデル統合プログラムP2300と、モデルとアプリ、利用者等の関係情報を含むモデル管理テーブルT2000と、利用者の情報を含む利用者テーブルT2100と、アプリの情報を含むアプリ情報テーブルT2200と、モデルの情報を含むモデル情報テーブルT2300と、モデル生成のための学習データの情報を含む学習データテーブルT2400と、利用者のグループの情報を含むグループ情報テーブルT2500と、グループを構成する条件情報を含むグループ条件テーブルT2600と、カスタムモデルを統合する条件情報を含む統合条件テーブルT2700と、カスタムモデルをアプリに採用する条件情報を含む採用条件テーブルT2800と、モデル評価の結果情報を含む評価結果テーブルT2900と、モデルの実態であるモデルファイルF2000と、学習データの実態である学習データファイルF2100とを備える。
アプリケーション管理システム3000は、クラウド上に構築され、ネットワーク1100およびネットワーク機器1200からなる通信ネットワークを介してユーザである複数のアプリ利用者がアプリケーションを利用し、アプリの実行を管理するものであって、1つ以上のアプリ管理計算機3100と、1つ以上のアプリ実行計算機3200とを備える。アプリケーション管理システム3000は、1つであってもよいし複数あってもよい。このように構成されることで、クラウド上でアプリケーションが利用者にサービスを提供することとなり、それにより、モデル生成用データの収集と、予測処理に用いるモデルの更新とが容易であり、容易に共有して予測精度を向上させることができる。また、アプリケーション管理システム3000は、モデル生成システム4000にて生成されたモデルおよび統合モデルの少なくとも一方による予測処理を含むサービスを利用者に提供するアプリケーションを実行する。なお、モデル生成システム4000にて生成されたモデルおよび統合モデルは、後述するように音声認識処理のための予測モデルが考えられる。
アプリ管理計算機3100は、1つ以上のアプリ管理プログラムP3000を備える。アプリ実行計算機3200は、1つ以上のアプリP3100を備える。アプリ管理プログラムP3000は、アプリP3100の稼働情報、性能情報、ログ情報、利用中のモデル情報、アプリに入力されたデータを管理する手段を備え、ネットワーク1100およびネットワーク機器1200を介して他のシステムと通信する。アプリ利用者1000は、利用者計算機1010からネットワーク1100およびネットワーク機器1200を介してアプリP3100と通信して利用する。アプリP3100は、ネットワーク1100およびネットワーク機器1200を介して、他のシステムと通信する。
モデル生成システム4000は、学習データを用いて機械学習を実行し、アプリが使用するためのモデルを生成するものであって、1つ以上のモデル生成計算機4100を備える。機械学習とは学習データを解析して特徴を抽出することをいう。所定の処理を実行するためのモデルを生成するのに機械学習を用いることができる。本実施形態では所定の処理は音声認識である。モデル生成システム4000は、1つであってもよいし複数あってもよい。
モデル生成計算機4100は、1つ以上のモデル生成プログラムP4000を備える。モデル生成プログラムP4000は、ネットワーク1100およびネットワーク機器1200を介して、他のシステムと通信する。
モデル評価システム5000は、モデル評価用データを用いてモデルの評価を実施するものであって、1つ以上の評価実行計算機5100を備える。モデル評価用データは、一例として、正解である文あるいは単語などのテキストが予め分かっている音声データである。その音声データに対する音声認識の結果として得られるテキストと、正解であるテキストとの一致の度合いが評価結果となる。モデル評価システム5000は、1つであってもよいし複数あってもよい。評価実行計算機5100は、評価実行プログラムP5000を備え、モデルの評価処理を実行する。評価実行計算機5100は、ネットワーク1100およびネットワーク機器1200を介して、他のシステムと通信する。
上述したモデル管理計算機2100、アプリ管理計算機3100、アプリ実行計算機3200、モデル生成計算機4100および評価実行計算機5100は、1つ以上のネットワーク1100および1つ以上のネットワーク機器1200によって互いに接続される。ネットワーク1100の一例はインターネットであり、Virtual Private Network(VPN)であってもよいし、その他のネットワークであってもよい。
なお、本願で記載の以外の物理機器や、機器同士を接続する配線等があってもよい。
図2は、図1に示したモデル管理計算機2100、アプリ管理計算機3100、アプリ実行計算機3200、モデル生成計算機4100および評価実行計算機5100に共通する要素の構成例を示す図である。
図2に示すように、図1に示したモデル管理計算機2100、アプリ管理計算機3100、アプリ実行計算機3200、モデル生成計算機4100および評価実行計算機5100の計算機1910は、メモリ1920と、CPU1930と、入出力IF1940と、記憶装置1950と、NW IF1960と、GPU1970とを備え、これらは内部バス1980で接続されている。
プログラムは、記憶装置1950に格納されており、メモリ1920にロードされ、CPU1930で実行される。なお、本願のシステムが有するすべての計算機1910のメモリにはOperating System(OS)P1000がロードされ、CPU1930で実行される。
上述したすべての計算機は、物理的な計算機であっても、物理的な計算機上で動作する仮想的な計算機であってもよい。また、各計算機の記憶装置は必須要素ではなく、例えば外部ストレージ装置でもよく、ストレージ装置の機能を論理的に提供するストレージサービスであってもよい。
各計算機が備えるNW IFの一例としては、Network Interface Card (NIC)が挙げられるが、これ以外であってもよい。
また、ディスプレイ等の出力装置、キーボード、マウスといった入出力IFを備えてもよいし、Secure Shell(SSH)といった手段によりネットワーク経由で当該計算機が遠隔管理される場合には、入力IFは必須の要素ではない。なお、GPU1970は、必須要素ではない。
上記の各計算機に含まれるプログラムとテーブルは、各計算機が備える記憶装置に含まれていてもよい。加えて、すべてのプログラムは各計算機が備えるCPUによって実行される。
なお、本願のシステムに含まれるすべてのプログラムは、上述したように異なる複数の計算機で実行されてもよいし、一つの計算機で実行されてもよい。また、各プログラムは、一つの計算機ですべてのステップが実行されてもよいし、ステップ毎に異なる計算機で実行されてもよい。
また、本願で記載された以外の構成要素や、構成要素を接続する配線等が計算機1910に含まれてもよい。
図3は、図1に示したモデル管理テーブルT2000の構成例を示す図である。
モデル管理テーブルT2000は、利用者が利用しているアプリと、各アプリが利用しているモデルと、利用者とアプリが属しているグループの管理に必要な情報を備え、どの利用者がどのアプリを利用し、どのグループに属しているかを示すものであって、図3に示すように、利用者識別子T2001と、アプリ識別子T2002と、モデル識別子T2003と、グループ識別子T2004とを含む。
利用者識別子T2001は、アプリの利用者を一意に特定するための情報であり、例えば連番数字や、利用者のアカウント名や、社員IDを用いてもよく、利用者を識別できる値であればそれ以外でもよい。
アプリ識別子T2002は、利用者が利用中のアプリを一意に特定するための情報であり、例えば連番数字やアプリIDを用いてもよく、アプリを識別できる値であればそれ以外でもよい。
モデル識別子T2003は、アプリが利用中のモデルを一意に特定するための情報であり、例えばモデル名称やモデルIDを用いてもよく、モデルを識別できる値であればそれ以外でもよい。例えば、利用者識別子がU-1の利用者においては、Mdl-1によって識別されるモデルをベースとして用い、Mdl-2によって識別されるモデルをカスタムとして用いてこれらが組み合わされてモデルが適用されることを示している。
グループ識別子T2004は、利用者が属するグループを一意に特定するための情報であり、例えばグループ名称やグループIDを用いてもよく、グループを識別できる値であればそれ以外でもよい。
図4は、図1に示した利用者情報テーブルT2100の構成例を示す図である。
利用者情報テーブルT2100は、アプリを利用する利用者に関する情報を備え、図4に示すように、利用者識別子T2101と、利用者登録名T2102と、第一情報T2103と、第二情報T2104と、第三情報T2105とを備える。
利用者識別子T2101は、アプリの利用者を一意に特定するための情報であり、例えば連番数字や、利用者のアカウント名や、社員IDを用いてもよく、利用者を識別できる値であればそれ以外でもよい。
利用者登録名T2102は、利用者がアプリ利用のために登録した名称であり、例えば氏名、アカウント名、番号を用いてよい。
第一情報T2103は、利用者の属性を示す第一の情報であり、例えば利用者の属する業界種別の情報を用いてよい。
第二情報T2104は、利用者の属性を示す第二の情報であり、例えば利用者の属する企業名や組織名を用いてよい。
第三情報T2105は、利用者の属性を示す第三の情報であり、例えば利用者の属する部署情報を用いてよい。
上述した第一情報T2103、第二情報T2104および第三情報T2105は、利用者が組織に属する場合、その所属部署等の属性を示し、利用者登録時に、例えば従業員データなどから取得しておくことが考えられる。
図5は、図1に示したアプリ情報テーブルT2200の構成例を示すである。
アプリ情報テーブルT2200は、利用者が使用するアプリ情報を備え、図5に示すように、アプリ識別子T2201と、アプリ種別T2202と、基準モデル情報T2203と、実行場所情報T2204とを含む。
アプリ識別子T2201は、利用者が利用中のアプリを一意に特定するための情報であり、例えば連番数字やアプリIDを用いてもよく、アプリを識別できる値であればそれ以外でもよい。このアプリ識別子T2201は、利用者がアプリを利用するタイミングで生成されるものであって、そのため、同一のソフトウェアであっても、利用者毎に異なるものとなる。
アプリ種別T2202は、利用者が使用しているアプリの種別を一意に特定するための情報であり、例えばアプリ名称を示す文字列を用いてよい。
基準モデル情報T2203は、当該アプリを実行環境に配備した際にデフォルトで利用されるモデルを一意に特定するための情報であり、モデル名称やモデルIDを用いてもよく、モデルを識別できる値であればそれ以外でもよい。
実行場所情報T2204は、アプリが実行される計算環境を一意に特定するための情報であり、例えば計算機のホスト名、IPアドレス、仮想マシン名を用いてもよく、計算環境を識別できる値であればそれ以外でもよい。
これらの情報は、アプリ識別子T2201が利用者毎に設定されるため、アプリを利用している利用者だけ存在することとなり、これらを参照することで、利用者のそれぞれが使っているアプリが何かを把握することができる。
図6は、図1に示したモデル情報テーブルT2300の構成例を示す図である。
モデル情報テーブルT2300は、アプリが利用するモデル情報を備え、図6に示すように、モデル識別子T2301と、モデル登録名T2302と、学習データ識別子T2303と、モデル作成者T2304とを備える。
モデル識別子T2301は、アプリが利用中のモデルを一意に特定するための情報であり、例えばモデル名称やモデルIDを用いてもよく、モデルを識別できる値であればそれ以外でもよい。
モデル登録名T2302は、モデルの名称を特定する情報であり、モデル作成者であるアプリ利用者1000またはモデル生成プログラムP4000により付与される。
学習データ識別子T2303は、アプリ利用者によりモデルを生成するために使用されたデータを識別する情報であり、例えば連番やデータIDを用いてもよく、学習データを識別できる値であればそれ以外でもよい。また、モデルがアプリ利用者以外の、例えばアプリ開発者やモデル開発者により生成されている場合、学習データ識別子にはアプリ利用者以外により生成されたモデルであることを識別できる値、例えば「―」などを用いてよく、アプリ利用者以外により生成されたモデルであることを識別できる値であればそれ以外でもよい。
モデル作成者T2304は、当該モデルを生成したアプリ利用者を一意に特定するための情報であり、利用者情報T2001の値を使用することができる。また、モデルがアプリ利用者以外の、例えばアプリ開発者やモデル開発者により生成されている場合、モデル作成者T2203には、アプリ利用者以外がモデル作成者であることを識別できる値、例えば「―」などを用いてよく、アプリ利用者以外がモデル作成者であることを識別できる値であればそれ以外でもよい。
図7は、図1に示した学習データテーブルT2400の構成例を示す図である。
学習データテーブルT2400は、アプリ利用者がモデル生成する際にどのようなデータを使用したかを示した情報を含み、図7に示すように、学習データ識別子T2401と、第一学習データT2402と、第二学習データT2403とを備える。
学習データ識別子T2401は、モデルを生成するために使用されたデータを識別する情報であり、例えば連番やデータIDを用いてもよく、学習データを識別できる値であればそれ以外でもよい。
第一学習データT2402は、モデルを生成するために使用されたデータを表すものであり、例えば、音声認識の精度を向上させるために追加した固有名詞などの単語の一覧や、単語一覧の記載されたファイルの名称や、データの格納されたデータベース情報を用いてもよく、モデルの生成に使用したデータを識別できる値であれば、それ以外でもよい。
第二学習データT2403は、モデルを生成するために使用されたデータを表すものであり、例えば、音声認識の精度を向上させるために追加した例文の一覧や、例文一覧の記載されたファイルの名称や、データの格納されたデータベース情報を用いてもよく、モデルの生成に使用したデータを識別できる値であれば、それ以外でもよい。
図8は、図1に示したグループ情報テーブルT2500の構成例を示す図である。
グループ情報テーブルT2500は、アプリ利用者が所属するグループの情報や、学習データをまとめる単位となるグループを作成するために使用したグループ条件の情報や、グループ条件に従って評価した結果情報を含み、図8に示すように、グループ識別子T2501と、メンバー情報T2502と、グループ条件識別子T2503と、グループ評価結果T2504と、を備える。
グループ識別子T2501は、利用者が属するグループを一意に特定するための情報であり、例えばグループ名称やグループIDを用いてもよく、グループを識別できる値であればそれ以外でもよい。
メンバー情報T2502は、当該グループに属するアプリ利用者の集合を表すものであり、利用者情報テーブルT2100の利用者識別子T2101を用いてもよく、利用者を特定できるものであれば、それ以外でもよい。
グループ条件識別子T2503は、当該グループに属する利用者を選別するための条件情報を表すものであり、グループ条件テーブルT2600のグループ条件識別子T2601(図9参照)の値を用いてもよく、グループ条件を特定できるものであれば、それ以外でもよい。
グループ評価結果T2504は、当該グループのグループ条件識別子T2503を評価した結果を表すものであり、例えば、「アプリ種別=議事録作成支援、業界=金融、組織=A銀行、類似度=0.9」といった文字列で表してもよい。なお、類似度とは、例えば、アプリ種別が議事録作成支援である場合は、議事録のテキストデータの類似度であり、アプリ種別がコールセンターである場合は、オペレータの発言内容の類似度である。
図9は、図1に示したグループ条件テーブルT2600の構成例を示す図である。
グループ条件テーブルT2600は、利用者のグループを作成する際に満たす条件情報を含み、図9に示すように、グループ条件識別子T2601と、グループ条件T2602とを含む。
グループ条件識別子T2601は、グループ条件を特定するための情報であり、例えば、任意の文字列や、連番等、の値を用いてもよい。
グループ条件T2602は、複数のアプリ利用者を有するグループを作成する際に満たす条件情報を表し、例えば、アプリが一致であり、利用者の属性となる業界および組織が一致であり、音声認識処理から出力されたテキストの類似度が0.8を超えることを示す「アプリ種別:一致、業界:一致、組織:一致、類似度:>0.8」といった文字列によってグループ条件を規定してもよい。
このように、利用者とアプリの種別とに基づいてグループ分けを行うので、類似性のあるモデル生成データをユーザ同士で共有することができる。またその際に、音声認識処理の出力履歴に含まれるテキストの類似度による条件によりグループ分けを行うことで、適切なグループ分けが可能となる。
図10は、図1に示した統合条件テーブルT2700の構成例を示す図である。
統合条件テーブルT2700は、同一グループに属する利用者が生成したモデルを統合するかを判断する条件情報を含み、図10に示すように、統合条件テーブルT2700は、統合条件識別子T2701と、統合条件T2702と、統合条件ステータスT2703とを含む。
統合条件識別子T2701は、統合条件を特定するための情報であり、例えば、任意の文字列や、連番等、の値を用いてもよい。
統合条件T2702は、同一グループに属する利用者が生成したモデルを統合するかを判断する条件情報であり、例えば、データ量条件としてグループに属する利用者のモデル生成用データの総量が100単語を超えたことを示す「学習データサイズ>100単語」といった文字列で表したり、精度条件として適用されているモデルによる処理の精度が80%未満となったことを示す「音声認識精度<80%」といった文字列で表したりしてもよい。このように、学習すべきカスタマイズのデータが増えたことを統合モデル生成のトリガとするので、適切な時期に統合モデルの生成を実行することができる。また、予測処理の精度が低下したことを統合モデル生成のトリガとすれば、適切な時期に統合モデルの生成を実行することができる。
統合条件ステータスT2703は、当該統合条件の利用可否を表す情報であり、例えば、「有効」「無効」といった文字列を用いてもよいし、数字や記号を用いてもよい。この統合条件ステータスT2703は、利用者がON/OFFすることができる。
図11は、図1に示したモデル採用条件テーブルT2800の構成例を示す図である。
モデル採用条件テーブルT2800は、統合されたモデルを採用する条件情報を備え、図11に示すように、モデル採用条件識別子T2801と、モデル採用条件T2802と、モデル採用手段T2803と、優先度T2804とを含む。
モデル採用条件識別子T2801は、モデル採用条件を特定するための情報であり、例えば、任意の文字列や、連番等、の値を用いてもよい。
モデル採用条件T2802は、生成したモデルをアプリ用に採用する条件を表した情報であり、例えば、「音声認識精度>90%」といった文字列で表してもよい。
モデル採用手段T2803は、前期モデル採用条件を満足するモデルをアプリ用に採用する手段を表した情報であり、例えば、モデル生成後にモデル情報と採否確認情報を利用者に通知して利用者がモデルの採用を決定する手段を「利用者通知」と表したり、モデル採用条件を満足する場合に自動的にアプリのモデルを新しいモデルに入れ替える手段を「自動入れ替え」と表したりしてもよい。
優先度T2804は、モデル採用条件を評価する順序を表す情報であり、例えば、数字や文字列で表してもよい。また、常にモデル採用条件を評価する場合に、例えば「0」や「常に使用」といった値を用いてもよい。また、一時的に評価対象外とするために、「-1」や「無効」といった値を用いてもよい。図11に示したものにおいては、数字が大きなほど優先度が高くなっている。そのため、例えば、音声認識精度が97%である場合は、モデル採用条件識別子MC-1,MC-2のいずれにも該当するものの、モデル採用条件識別子MC-2による採用条件が適用され、自動入れ替えが実施されることになる。
図12は、図1に示した評価結果テーブルT2900の構成例を示す図である。
評価結果テーブルT2900は、モデル評価システム5000が評価したモデルの評価結果情報を備え、評価結果識別子T2901と、評価対象アプリT2902と、評価対象モデルT2903と。評価結果T2904と、評価実行日時T2905とを含む。
評価結果識別子T2901は、評価結果情報を一意に特定するための識別子であり、評価実行プログラムP5000によって、例えば連番等、の値が付与される。
評価対象アプリT2903は、評価対象のアプリを一意に特定するための値であり、アプリ情報テーブルT2200のアプリ識別子T2201を用いてもよく、評価対象のアプリが識別できる値であれば、それ以外でもよい。
評価対象モデルT2903は、評価対象のモデルを一意に特定するための値であり、モデル情報テーブルT2300のモデル識別子T2301を用いてもよく、評価対象のモデルが識別できる値であれば、それ以外でもよい。
評価結果T2904は、評価対象のモデルの評価結果を表す情報であり、評価実行プログラムP5000自身が評価対象モデルを用いて評価用データの音声認識処理を実行し、音声認識結果の精度を評価したり、アプリ管理プログラムP3000が管理するアプリが実行した音声認識の結果のログ情報を評価実行プログラムP5000が取得し、その音声認識結果の精度を評価したりした値であり、数値や記号、または「音声認識精度=0.92」といった文字列で表してもよい。
評価実行日時T2905は、評価実行プログラムP5100が実行された日時を表す情報であり、「2019/4/1 10:00」といった文字列で表してもよい。
以下に、上記のように構成された機械学習システムにおける処理について説明する。
図13は、図1に示したモデル管理計算機2100が有するモデル管理プログラムP2000が実行する処理を説明するためのフローチャートであり、モデル管理プログラムP2000が、利用者計算機1010を介して送信された、アプリ利用者1000からのモデル生成要求を受信し、前記要求に対する処理を実行する処理を示す。
モデル管理プログラムP2000が実行されると、モデル管理プログラムP2000は、モデルによる予測処理である音声認識処理を利用するアプリ利用者1000からのモデル生成要求の待受を開始する(ステップS1000)。
モデル管理プログラムP2000が、アプリ利用者1000からのモデル生成要求を受信すると(ステップS1001)、モデル管理プログラムP2000はまず、モデル生成要求を解析する(ステップS1002)。アプリ利用者1000からのモデル生成要求には、例えばアプリ利用者1000の識別情報、アプリ利用者1000が利用しているアプリの情報、モデル生成に用いる学習データ等が含まれているため、モデル管理プログラムP2000は、受信されたモデル生成要求に含まれる情報、例えばアプリ利用者1000の識別情報、アプリ利用者1000が利用しているアプリの情報、モデル生成に用いる学習データ等を解析する。
次に、モデル管理プログラムP2000は、モデル生成要求に含まれる学習データを解析して第一学習データT2402と、第二学習データT2403とを抽出し、学習データ識別子T2401を付与し、新しいレコードとして学習データテーブルT2400に追記する(ステップS1003)。学習データはファイルシステムやストレージサービスに格納し、そのファイルパスやアクセスアドレスを第一学習データT2402と、第二学習データT2403に記載してもよい。
次に、モデル管理プログラムP2000は、モデル生成要求に含まれる情報と、学習データテーブルT2400に登録されている学習データとを用いて、モデル生成プログラムP4000にモデル生成要求を送信する(ステップS1004)。モデル生成要求には、例えばアプリ利用者1000の識別情報、アプリ利用者1000が利用しているアプリの識別情報、学習データ識別子T2401等が含まれる。
その後、モデル管理プログラムP2000は、モデル生成プログラムP4000から、モデル生成結果を受信すると(ステップS1005)、受信したモデル生成結果と、モデル採用条件テーブルT2800のモデル採用条件T2802と優先度T2804とを用いて、モデル採否処理を実行する(ステップS1006)。なお、モデル管理プログラムP2000がモデル生成プログラムP4000から受信するモデル生成結果には、例えばアプリ利用者1000の識別情報、アプリ利用者1000が利用しているアプリの識別情報、生成されたモデルの識別情報、生成されたモデルの評価情報等が含まれる。モデル採否処理は、優先度T2804が最も高優先度なモデル採否条件のみ実行してよいし、優先度T2804の高優先度から順にモデル採用条件を評価して条件を満足するものを実行してもよい。
次に、モデル管理プログラムP2000は、アプリ利用者1000から受信したモデル生成要求に含まれるアプリ利用者の識別情報およびアプリ情報と、ステップS1005で受信したモデル生成結果に含まれる生成されたモデルの識別情報とに基づいて、モデル管理テーブルT2000にモデル管理情報を格納し(ステップS1007)、処理を終了する(ステップS1008)。その際、モデル管理テーブルT2000のレコードに、既に当該の利用者識別子とアプリ識別子の値を有するレコードがある場合は、当該レコードの情報を更新し、当該の利用者識別子とアプリ識別子の値を有するレコードがない場合は、新規レコードを作成して情報格納する。
このようにして、モデルによる音声認識処理を利用する利用者に応じてモデル生成システム4000にて生成されたモデル生成用データが、利用者に対応付けて記録されることになる。
図14は、図1に示したモデル生成計算機4100が有するモデル生成プログラムP4000が実行する処理を説明するためのフローチャートであり、図13に示したステップS1004にてモデル管理プログラムP2000から送信されたモデル生成要求に対する処理を示す。
モデル生成プログラムP4000が実行されると、モデル生成プログラムP4000は、図13に示したステップS1004にてモデル管理プログラムP2000から送信されたモデル生成要求の待受を開始する(ステップS2000)。
モデル生成プログラムP4000が、モデル管理プログラムP2000から送信されたモデル生成要求を受信すると(ステップS2001)、モデル生成プログラムP4000はまず、受信したモデル生成要求に含まれる学習データ識別子T2401が示す学習データを取得する(ステップS2002)。ステップS2001にて受信したモデル生成要求には、例えばアプリ利用者1000の識別情報、アプリ利用者1000が利用しているアプリの識別情報、学習データ識別子T2401等が含まれているため、モデル生成プログラムP4000は、受信したモデル生成要求に含まれる学習データ識別子T2401が示す学習データを取得することができる。
次に、モデル生成プログラムP4000は、ステップS2001にて受信したモデル生成要求に含まれるアプリ利用者1000の識別情報、アプリ利用者1000が利用しているアプリの識別情報を用い、モデル管理テーブルT2000を参照し、利用しているモデルのモデル識別子T2003を特定する。そして、ステップS2002にて取得した学習データと、モデル識別子T2003により特定したモデルを用いて機械学習を実行し、新しいモデル(以下、カスタムモデルと称する)を生成する(ステップS2003)。
次に、モデル生成プログラムP4000は、評価実行プログラムP5000に対してカスタムモデルの評価要求を送信する(ステップS2004)。この評価要求には、例えば、アプリの識別情報、ステップS2003にて生成したカスタムモデルと、ステップS2002にて取得した学習データと、アプリ管理プログラムP3000が管理するログ情報とアプリ入力データ情報等が含まれる。
その後、モデル生成プログラムP4000は、評価要求に対する評価結果を評価実行プログラムP5000から受信すると(ステップS2005)、ステップ2003にて生成したモデル生成結果をモデル生成要求元に送信し(ステップS2006)、処理を終了する(ステップS2007)。なお、評価実行プログラムP5000から受信した評価結果は、評価テーブルT2900の評価結果識別子T2901であってもよいし、または、評価結果テーブルT2900の当該レコードの情報を一部または全部を含んでもよい。また、モデル生成要求元に送信するモデル生成結果には、例えばアプリ利用者1000の識別情報、アプリ利用者1000が利用しているアプリの識別情報、生成されたモデルの識別情報、生成されたモデルの評価情報、評価結果識別子T2901等が含まれる。
図15は、図1に示した評価実行計算機5100が有する評価実行プログラムP5000が実行する処理を説明するためのフローチャートであり、図14に示したステップS2004にてモデル生成プログラムP4000から送信されたモデル評価要求に対する処理を示す。
評価実行プログラムP5000が実行されると、評価実行プログラムP5000は、図14に示したステップS2004にてモデル生成プログラムP4000から送信されたモデル評価要求の待受を開始する(ステップS3000)。
評価実行プログラムP5000は、モデル生成プログラムP4000から送信されたモデル評価要求を受信すると(ステップS3001)、まず、モデル評価要求に含まれるアプリ入力データを抽出し、評価データとして保持する(ステップS3002)。なお、アプリ入力データは、例えば、議事録作成支援アプリの場合、当該アプリを過去に利用した際に入力された会議音声データなどであってよい。なお、ステップS3001にて受信されたモデル評価要求には、アプリ識別情報、ステップS2003にてモデル生成プログラムP4000が生成したカスタムモデルと、ステップS2002にてモデル生成プログラムP4000が取得した学習データと、アプリ管理プログラムP3000が管理するログ情報とアプリ入力データ情報等が含まれる。
次に、評価実行プログラムP5000は、モデル評価要求に含まれるアプリ識別情報を用い、同じアプリを評価実行計算機5100で評価用アプリとして動作させる(ステップS3003)。例えば、当該アプリの実行プログラムをコピーしてもよく、当該アプリが格納された仮想マシンのイメージファイルを取得して仮想マシンとして動作させてもよく、当該アプリが格納されたコンテナイメージファイルを取得してコンテナとして動作させてもよい。また、動作させる評価用アプリは複数であってもよい。
次に、評価実行プログラムP5000は、ステップS3003にて動作させた評価用アプリに対して、ステップS3002にて保持した評価データを入力として与えて、評価を実行する(ステップS3004)。なお、評価用アプリを複数動作させる場合は、評価データを複数に分割して、複数の評価用アプリに分散して入力することで、評価実行を分散してもよい。さらに、評価の実行を開始した日時の情報を、次のステップで使用するためにメモリに一時的に格納する。
次に、評価実行プログラムP5000は、評価実行の結果を取得し、評価結果テーブルT2900の評価結果識別子T2901を生成して新規レコードを追加し、評価対象アプリの識別情報T2902と、評価対象モデル情報T2903と、評価結果T2904と、評価実行日時T2905と、を当該レコードに格納する(ステップS3005)。
その後、評価実行プログラムP5000は、ステップS3001にて受信したモデル評価要求の要求元に評価結果を送信し(ステップS3006)、処理を終了する(ステップS3007)。評価結果は、例えば、評価テーブルT2900の評価結果識別子T2901であってもよいし、または、評価結果テーブルT2900の当該レコードの情報を一部または全部を含んでもよい。
図16は、図1に示したモデル管理計算機2100が有するグループ管理プログラムP2100が実行する処理を説明するためのフローチャートであり、グループ条件テーブルT2600とモデル管理テーブルT2000の情報を用いて、グループ情報を生成する処理を示す。この処理は、例えば、利用者がカスタムモデルを生成したタイミングや新規の利用者が増えたタイミング、あるいは定期的に、図13~図15に示した処理とは異なるタイミングで行われている。
グループ管理プログラムP2100が実行されると(ステップS4000)、グループ管理プログラムP2100は、まず、グループ条件テーブルT2600の全レコードを取得し(ステップS4001)、また、モデル管理テーブルT2000の全レコードを取得する(ステップS4002)。
次に、グループ管理プログラムP2100は、ステップS4001にて取得したグループ条件テーブルのレコードの一つを取り出し(ステップS4003)、また、ステップS4002にて取得したモデル管理テーブルT2000のレコードの一つを取り出す(ステップS4004)。
次に、グループ管理プログラムP2100は、ステップS4004にて取り出されたモデル管理情報が、ステップS4003にて取り出されたグループ条件を満足するか評価する(ステップS4005)。例えば、図9に示したグループ条件テーブルT2600では、まずグループ条件識別子が「Cond-1」のグループ条件「アプリ種別:一致、業界:一致、組織:一致、類似度:>0.8」が評価対象となる。
次に、図3に示したモデル管理テーブルT2000では、まず利用者識別子が「U-1」かつアプリ識別子「App-1」のレコードが評価対象となる。この場合、アプリ利用者「U-1」の情報は、図4に示した利用者情報テーブルT2100の利用者識別子T2101が「U-1」の情報となる。
さらに、アプリ識別子「App-1」の情報は、図5に示したアプリ情報テーブルT2200のアプリ識別子T2201が「App-1」の情報となる。
グループ管理プログラムP2100は、これら情報を参照し、利用者識別子「U-1」かつアプリ識別子「App-1」から、「アプリ種別:議事録作成支援、業界:金融業界、組織:A銀行」であることを取得する。
そして、モデル管理テーブルの、現在評価していない各レコードについて、順に同じ処理をし、「アプリ種別、業界、組織」情報を取得する。例えば、利用者識別子「U-2」かつアプリ識別子「App-2」では、「アプリ種別:議事録作成支援、業界:金融業界、組織:A銀行」であることが取得される。
利用者識別子「U-1」かつアプリ識別子「App-1」と利用者識別子「U-2」かつアプリ識別子「App-2」は、グループ条件のうち、「アプリ種別:一致、業界:一致、組織:一致」を満足するので、次に類似度の算出を実行する。
類似度は、各アプリのログ情報をアプリ管理プログラムP3000から取得し、形態素解析によるキーワードの出現頻度の分析、Word2Vecを用いた文章間の類似度算出、あるいはクラスタリング分析手法を用いて算出してもよい。
算出された類似度が、グループ条件「類似度:>0.8」を満足する場合、グループ条件を満足した利用者識別子と、グループ条件識別子と、グループ評価結果とを、グループ管理プログラムP2100が管理するメモリ上に記録する。
そして、全てのレコードが評価済みであれば(ステップS4006)、グループ管理プログラムP2100は、グループ情報テーブルT2500に新規レコードを追加し、グループ識別子T2501の値を格納し、ステップS4005にてグループ条件を満足すると評価した利用者識別子をメンバー情報T2502に格納し、評価に使用したグループ条件をグループ条件識別子T2503に格納し、評価結果をグループ評価結果T2504に格納する(ステップS4007)。
一方、ステップS4005にてグループ条件を満足しない場合や、モデル管理テーブルのレコードのうち、まだグループ条件を評価していないレコードがある場合は、ステップS4004の処理に戻る。
そして、全てのレコードが評価済みであれば(ステップS4008)、処理を終了する(ステップS4009)。
一方、グループ条件テーブルのレコードのうち、まだグループ条件を評価していないレコードがある場合は、ステップS4003の処理に戻る。
このようにして、グループ管理プログラムP2100によって、音声認識処理を利用する利用者が所定のグループ条件に従ってグループ分けされることになる。
図17は、図1に示したモデル管理計算機2100が有する通知管理プログラムP2200が実行する処理を説明するためのフローチャートであり、通知要求を受信して通知する処理を示す。
通知管理プログラムP2200が実行されると、通知管理プログラムP2200は、通知要求の待受を開始する(ステップS5000)。
通知管理プログラムP2200は、通知要求を受信すると(ステップS5001)、受信した通知要求の内容を解析し、通知先のアプリの特定、通知内容の整形、通知に対する回答要否の特定、などを実行する(ステップS5002)。なお、通知要求には、例えばアプリ利用者1000の識別情報、アプリ利用者1000が利用しているアプリの識別情報、当該アプリが使用するモデル情報、当該モデルの評価情報、通知回答の要否、等が含まれ、通知要求は、図13に示したステップS1006にてモデル管理プログラムP2000が送信してもよく、他のプログラムが送信してもよい。
次に、通知管理プログラムP2200は、アプリ利用者1000が利用しているアプリに対して、ステップS5002にて解析した通知内容を送信する(ステップS5003)。
その後、通知管理プログラムP2200は、ステップS5003にてアプリへ送信した通知の回答を受信すると(ステップS5004)、通知要求の要求元に対して、受信した通知の回答を通知結果として送信し(ステップS5005)、処理を終了する(ステップS5006)。なお、通知結果には、例えば、通知処理の成功または失敗を示す値、ステップS5004で受信した回答情報、等が含まれる。また、通知要求において、通知に対する回答が必要であると指定されていない場合は、回答の受信を待たずステップS5005へ進む。
通知に対する回答が必要な場合は、例えば、モデル管理プログラムP2000が、生成したモデル採用の可否を利用者に通知し、その可否の回答を要する場合が挙げられるが、それに限定されない。
図18は、図1の示したモデル管理計算機2100が有するモデル統合プログラムP2300が実行する処理を説明するためのフローチャートであり、統合条件テーブルT2700の情報に従いモデル統合する処理を示す。なお、モデル統合プログラムP2300は、モデル管理プログラムP2000により定期的に起動してもよいし、アプリ利用者1000からモデル統合の要求を受けて起動してもよい。
モデル統合プログラムP2300が起動すると(ステップS6000)、モデル統合プログラムP2300は、モデル管理テーブルT2000の全てのレコードを取得し(ステップS6001)、また、統合条件テーブルT2700の全てのレコードを取得する(ステップS6002)。ただし、統合条件ステータスT2703に未使用を示す値、例えば「無効」の文字列など、が格納されている場合、当該レコードは取得しない。
次に、モデル統合プログラムP2300は、ステップS6001にて取得したモデル管理テーブルT2000のレコードの一つを取り出し(ステップS6003)、また、ステップS6002にて取得した統合条件テーブルT2700のレコードの一つを取り出す(ステップS6004)。
次に、モデル統合プログラムP2300は、モデル管理情報に含まれるグループ識別子T2004が同じモデル管理情報をステップS6001で取得したモデル管理テーブルT2000から探し、統合条件T2702を評価するための情報を、学習データテーブルT2400、評価結果テーブルT2900、アプリ管理プログラムP3000から取得し、統合条件を評価する(ステップS6005)。
統合条件を満足する場合は、統合条件を満足したグループ情報に含まれるモデル情報を参照し、そのモデル識別子T2301が有する学習データ識別子T2303を取得する。学習データ識別子にアプリ利用者以外により生成されたモデルであることを識別できる値、例えば「―」などが格納されている場合は、その学習データ識別子は取得しない。取得した全ての学習データ識別子T2303が示す学習データを学習データテーブルT2400から取得し、一つの学習データとして統合する(ステップS6006)。
一方、統合条件を満足しない場合は、ステップS6004における処理に戻る。
モデル統合プログラムP2300は、結合した学習データを用いて、モデル生成プログラムP4000にモデル生成要求を送信する(ステップS6007)。このようにして、モデル管理システム2000は、グループに属する利用者に応じて作成されたモデル生成用データを含む学習データをモデル生成システムに与えてグループに対応する統合モデルを生成させることになる。
その後、モデル統合プログラムP2300は、モデル生成プログラムP4000からモデル生成結果を受信すると(ステップS6008)、受信したモデル生成結果と、モデル採用条件テーブルT2800のモデル採用条件T2802と優先度T2804とを用いて、モデル採否処理を実行する(ステップS6008)。モデル採否処理は、優先度T2804が最も高優先度なモデル採否条件のみ実行してよいし、優先度T2804の高優先度から順にモデル採用条件を評価して条件を満足するものを実行してもよい。なお、モデル生成プログラムP4000から受信したモデル生成結果には、例えばアプリ利用者1000の識別情報、アプリ利用者1000が利用しているアプリの識別情報、生成されたモデルの識別情報、生成されたモデルの評価情報等が含まれる。このように、生成された統合モデルの評価結果に基づいて統合モデルの採否を決定するため、評価を得た信頼度の高い統合モデルを得ることができる。また、モデル採用手段T2803にて利用者通知とされた場合は、評価結果に基づく情報を利用者に提示して統合モデルの採否の判断を促し、利用者が統合モデルを採用すると判断した場合、その利用者について統合モデルを採用することとなり、利用者の意思に基づいて統合モデルを適用することができる。さらに、統合モデルの採否を決定するための複数の採用条件に付与された優先度に応じて統合モデルの採否を決定することで、統合モデルの採否を決定するための複数の採用条件を設定しておきながらも利用者に応じた統合モデルを適用することができる。
次に、モデル統合プログラムP2300は、受信したモデル生成結果をもとに、モデル管理テーブルT2000にモデル管理情報を格納する(ステップS6010)。モデル管理テーブルT2000のレコードに、既に当該の利用者識別子とアプリ識別子の値を有するレコードがある場合は、当該レコードの情報を更新し、当該の利用者識別子とアプリ識別子の値を有するレコードがない場合は、新規レコードを作成して情報格納する。
モデル統合プログラムP2300は、統合条件テーブルの全てのレコードが評価済みの場合であって(ステップS6011)、モデル管理テーブルの全てのレコードが評価済みの場合(ステップS6012)、処理を終了する(ステップS6013)。
一方、統合条件テーブルのレコードのうち、まだ評価していないレコードがある場合は、ステップS6004の処理に戻り、また、モデル管理テーブルのレコードのうち、まだグループ条件を評価していないレコードがある場合はS6003の処理に戻る。
このように、モデル統合プログラムP2300が、グループ分けを実行したときに所定の統合条件が満たされている場合に、モデル生成システム4000にグループに対応する統合モデルを生成させることにより、グループについての適切な統合モデルを迅速に適用可能とすることができる。
図19は、図1に示した通知管理プログラムP2200が、モデル生成の通知をアプリ利用者1000のアプリP3100に表示した画面例を示す図である。
本画面例は図19に示すように、アプリP3100が議事録作成支援アプリである場合の画面G1000を示す。
画面G1000上には、通知管理プログラムP2200がアプリP3100に送信した通知内容G1001が表示されている。
通知内容G1001には、例えば、アイコンと、通知メッセージと、詳細情報をさらに表示するためのリンクやボタンと、利用者1000の通知に対するアクションを選択可能な複数のボタンなどを表示させてよい。アクションは、「OK」「キャンセル」の他にも、モデルの採否を選択するために「採用」「不採用」としてもよい。
通知内容G1001は、バナー形式での表示の他にも、利用者計算機1010のオペレーティングシステムが備える通知機能、例えばタスクトレイの通知機能などを利用してもよく、画面G1000の上部にリボン状に表示させてもよいし、アプリP3100がさらに利用者1000のスマートフォンやタブレットといった端末に通知を送信して表示させてもよく、通知内容が表示されればその他の方法でもよい。
通知内容G1001に表示されているアクションを利用者1000が選択した場合、選択した項目の情報は通知管理プログラムP2200へ送信される。ただし、通知内容G1001に利用者1000のアクションを選択するためのボタン等が無い場合には、通知管理プログラムP2200への選択項目の送信は実行されない。
上述したように本形態においては、ユーザをグループ分けし、グループに属するユーザに応じて作成されたモデル生成用データを機械学習することにより当該グルームに対応する統合モデルを生成するので、モデルを用いた予測処理によりユーザに提供される処理結果の向上を支援することができる。具体的には、アプリ利用者1000は他の利用者のカスタムモデルの詳細を把握しなくとも、同じドメインに属する複数の利用者にとって精度の高いモデルを利用可能となり、アプリ利用者の満足度向上が期待される。
音声認識技術を活用するアプリがクラウドコンピューティングのように共通の基盤で提供される場合、複数のユーザが同じアプリを共通基盤上で個別に利用することが考えられる。その際、基盤は共通ではあるがアプリの実行環境は個々の利用者毎に隔離されているため、個々の利用者は自身のアプリの音声認識精度を向上させるためにモデルのカスタマイズを実施する。
一方、同じアプリを利用する複数ユーザのうち、所属する業界が同じであったり、同じ企業内で職種の近い部署に所属していたりするユーザは、音声認識の対象となる発話の内容が近いことが多い。例えば、会議の音声データを音声認識する議事録作成支援アプリの場合、同じ業界のユーザ同士であれば共通の業界用語が含まれることが多いと考えられる。そのような場合、上述した実施の形態の構成および手段を採用することでえ、他のユーザがカスタマイズしたモデルも利用することができ、個々の利用者が個別にカスタマイズするよりも、音声認識の精度向上が期待できる。
なお、上述した実施の形態においては、予測処理として音声認識処理を例に挙げて説明したが、予測処理としては画像認識等の他の例も考えられ、音声認識処理には限定されない。
1000…アプリ利用者、1010…利用者計算機、1100…ネットワーク、1200…ネットワーク機器、2000…モデル管理システム、2100…モデル管理計算機、3000…アプリケーション管理システム、3100…アプリ管理計算機、3200…アプリ実行計算機、4000…モデル生成システム、4100…モデル生成計算機、5000…モデル評価システム、5100…評価実行計算機

Claims (10)

  1. 学習データを用いてモデルを生成するモデル生成システムと、
    前記モデルによる予測処理を利用するユーザに応じて作成されたモデル生成用データを前記ユーザに対応付けて記録し、前記ユーザを所定のグループ条件に従ってグループ分けし、前記グループに属するユーザに応じて作成されたモデル生成用データを含む学習データを前記モデル生成システムに与えて前記グループに対応する統合モデルを生成させるモデル管理システムと、
    前記モデルおよび前記統合モデルの少なくとも一方による予測処理を含むサービスを前記ユーザに提供するアプリケーションを実行するアプリケーション管理システムと、
    を有し、
    前記モデルおよび前記統合モデルは、音声認識処理のための予測モデルであり、
    前記グループ条件は、前記アプリケーションの種別と、前記ユーザの属性と、前記音声認識処理から出力されたテキスト間の類似度とに基づいて規定される、
    計算機システム。
  2. 前記アプリケーション管理システムは、クラウド上に構築され、通信ネットワークを介して複数のユーザがアプリケーションを利用するシステムである、
    請求項に記載の計算機システム。
  3. 前記モデル管理システムは、前記グループ分けを実行したときに所定の統合条件が満たされている場合に、前記モデル生成システムに前記グループに対応する統合モデルを生成させる、
    請求項1に記載の計算機システム。
  4. 前記統合条件には、グループに属するユーザのモデル生成用データの総量が所定の閾値を超えたというデータ量条件が含まれる、
    請求項に記載の計算機システム。
  5. 前記統合条件には、適用されているモデルによる処理の精度が所定の閾値を下回ったという精度条件が含まれる、
    請求項に記載の計算機システム。
  6. モデル評価用データを用いてモデルを評価するモデル評価システムを更に有し、
    前記モデル生成システムは、前記統合モデルを生成すると、該統合モデルを前記モデル評価システムに評価させ、評価結果を前記統合モデルとともに前記モデル管理システムに提供し、
    前記モデル管理システムは、前記評価結果に基づいて前記統合モデルの採否を決定する、
    請求項1に記載の計算機システム。
  7. 前記モデル管理システムは、前記評価結果に基づく情報を前記ユーザに提示して前記統合モデルの採否の判断を促し、前記ユーザが前記統合モデルを採用すると判断した場合、前記ユーザについて前記統合モデルを採用する、
    請求項に記載の計算機システム。
  8. 前記モデル管理システムは、前記統合モデルの採否を決定するための採用条件を複数有し、該複数の採用条件に付与された優先度に応じて前記統合モデルの採否を決定する、
    請求項に記載の計算機システム。
  9. 学習データを用いて生成されたモデルに基づいて統合モデルを生成するモデル生成方法であって、
    コンピュータが、
    前記モデルによる予測処理を利用するユーザに応じて作成されたモデル生成用データを前記ユーザに対応付けて記録し、
    前記ユーザを所定のグループ条件に従ってグループ分けし、
    前記グループに属するユーザに応じて作成されたモデル生成用データを含む学習データを用いて前記グループに対応する統合モデルを生成するものであり、
    前記モデルおよび前記統合モデルの少なくとも一方は、予測処理を含むサービスを前記ユーザに提供するアプリケーションに利用され、
    前記モデルおよび前記統合モデルは、音声認識処理のための予測モデルであり、
    前記グループ条件は、前記アプリケーションの種別と、前記ユーザの属性と、前記音声認識処理から出力されたテキスト間の類似度とに基づいて規定される、
    モデル生成方法。
  10. 学習データを用いてモデルを生成するモデル生成システムに統合モデルを生成させるためのモデル管理プログラムであって、
    コンピュータに、
    前記モデルによる予測処理を利用するユーザに応じて作成されたモデル生成用データを前記ユーザに対応付けて記録する手順と、
    前記ユーザを所定のグループ条件に従ってグループ分けする手順と、
    前記グループに属するユーザに応じて作成されたモデル生成用データを含む学習データを前記モデル生成システムに与えて前記グループに対応する統合モデルを生成させる手順とを実行させるためのものであり、
    前記モデルおよび前記統合モデルの少なくとも一方は、予測処理を含むサービスを前記ユーザに提供するアプリケーションに利用され、
    前記モデルおよび前記統合モデルは、音声認識処理のための予測モデルであり、
    前記グループ条件は、前記アプリケーションの種別と、前記ユーザの属性と、前記音声認識処理から出力されたテキスト間の類似度とに基づいて規定される、
    プログラム。
JP2019110039A 2019-06-13 2019-06-13 計算機システム、モデル生成方法及びモデル管理プログラム Active JP7261096B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019110039A JP7261096B2 (ja) 2019-06-13 2019-06-13 計算機システム、モデル生成方法及びモデル管理プログラム
US16/829,562 US20200395004A1 (en) 2019-06-13 2020-03-25 Computer System, Model Generation Method, and Computer Readable Recording Medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019110039A JP7261096B2 (ja) 2019-06-13 2019-06-13 計算機システム、モデル生成方法及びモデル管理プログラム

Publications (2)

Publication Number Publication Date
JP2020201445A JP2020201445A (ja) 2020-12-17
JP7261096B2 true JP7261096B2 (ja) 2023-04-19

Family

ID=73742761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110039A Active JP7261096B2 (ja) 2019-06-13 2019-06-13 計算機システム、モデル生成方法及びモデル管理プログラム

Country Status (2)

Country Link
US (1) US20200395004A1 (ja)
JP (1) JP7261096B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11206316B2 (en) * 2020-03-04 2021-12-21 Hewlett Packard Enterprise Development Lp Multiple model injection for a deployment cluster
JP7449852B2 (ja) * 2020-12-28 2024-03-14 本田技研工業株式会社 情報処理装置、情報処理方法、及びプログラム
US20240248880A1 (en) * 2023-01-19 2024-07-25 Sap Se Denormalized data object having supplemental attribtues for core data model objects

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003177790A (ja) 2001-09-13 2003-06-27 Matsushita Electric Ind Co Ltd 端末装置、サーバ装置および音声認識方法
JP2004529390A (ja) 2001-06-06 2004-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザ・グループに固有のパターン処理システム
JP2010032865A (ja) 2008-07-30 2010-02-12 Kddi Corp 音声認識装置、音声認識システムおよびプログラム
JP2012037619A (ja) 2010-08-04 2012-02-23 Nec Corp 話者適応化装置、話者適応化方法および話者適応化用プログラム
JP2017215828A (ja) 2016-06-01 2017-12-07 富士通株式会社 学習モデル差分提供プログラム、学習モデル差分提供方法、および学習モデル差分提供システム
WO2019021804A1 (ja) 2017-07-24 2019-01-31 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004529390A (ja) 2001-06-06 2004-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザ・グループに固有のパターン処理システム
JP2003177790A (ja) 2001-09-13 2003-06-27 Matsushita Electric Ind Co Ltd 端末装置、サーバ装置および音声認識方法
JP2010032865A (ja) 2008-07-30 2010-02-12 Kddi Corp 音声認識装置、音声認識システムおよびプログラム
JP2012037619A (ja) 2010-08-04 2012-02-23 Nec Corp 話者適応化装置、話者適応化方法および話者適応化用プログラム
JP2017215828A (ja) 2016-06-01 2017-12-07 富士通株式会社 学習モデル差分提供プログラム、学習モデル差分提供方法、および学習モデル差分提供システム
WO2019021804A1 (ja) 2017-07-24 2019-01-31 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP2020201445A (ja) 2020-12-17
US20200395004A1 (en) 2020-12-17

Similar Documents

Publication Publication Date Title
US11971936B2 (en) Analyzing web pages to facilitate automatic navigation
US10762299B1 (en) Conversational understanding
US20230089596A1 (en) Database systems and methods of defining conversation automations
US9842586B2 (en) System and method for semantically exploring concepts
JP7261096B2 (ja) 計算機システム、モデル生成方法及びモデル管理プログラム
CN101287040B (zh) 基于发送方与接收方之间的交互历史和上下文的动作预测
US20170337261A1 (en) Decision Making and Planning/Prediction System for Human Intention Resolution
US20190108486A1 (en) System and method for intelligent and automatic electronic communication support and routing
US20180260856A1 (en) Managing a set of offers using a dialogue
EP3563379A1 (en) Dynamic search and retrieval of questions
KR102343477B1 (ko) 유저 인터페이스 자율 테스트 시스템 및 방법
CN111552870A (zh) 对象推荐方法、电子装置及存储介质
US11531821B2 (en) Intent resolution for chatbot conversations with negation and coreferences
US20180341685A1 (en) Integrating virtual and human agents in a multi-channel support system for complex software applications
US8776073B1 (en) Task prioritization based on users' interest
US20240070434A1 (en) Conversational knowledge base
CN107644053A (zh) 通知的场境信息
JP2019191975A (ja) 人材選定装置、人材選定システム、人材選定方法及びプログラム
WO2019200287A1 (en) Intelligent call center agent assistant
US20230342685A1 (en) Systems and methods for intelligent ticket management and resolution
WO2022035461A1 (en) Entity resolution for chatbot conversations
CN101202792B (zh) 基于发送方与接收方之间的关系处理消息的方法和装置
CN111949785A (zh) 查询语句管理方法和装置、可读存储介质、电子设备
US11194883B2 (en) Alert driven interactive interface to a website mining system
KR20210114328A (ko) 통화 녹음 정보 관리방법, 이를 위한 컴퓨터 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230407

R150 Certificate of patent or registration of utility model

Ref document number: 7261096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150