JP7408518B2 - 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム - Google Patents

情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム Download PDF

Info

Publication number
JP7408518B2
JP7408518B2 JP2020155830A JP2020155830A JP7408518B2 JP 7408518 B2 JP7408518 B2 JP 7408518B2 JP 2020155830 A JP2020155830 A JP 2020155830A JP 2020155830 A JP2020155830 A JP 2020155830A JP 7408518 B2 JP7408518 B2 JP 7408518B2
Authority
JP
Japan
Prior art keywords
data
model
learning
output
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020155830A
Other languages
English (en)
Other versions
JP2022049570A (ja
Inventor
悠哉 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2020155830A priority Critical patent/JP7408518B2/ja
Publication of JP2022049570A publication Critical patent/JP2022049570A/ja
Application granted granted Critical
Publication of JP7408518B2 publication Critical patent/JP7408518B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラムに関する。
機械学習の技術により、様々な用途に用いられる学習モデル(以下「モデル」ともいう)を学習する技術が提供されている。例えば、モデルを音声認識に用いる音声認識システムが提供されている。
特開2019-159058号公報
しかしながら、上記の従来技術では、多様な出力を行うモデルを利用可能にすることが難しい。例えば、従来技術では音声認識の結果としてその文字データ(テキスト)の1つの種別の出力のみを行っているに過ぎない。そのため、複数種別の出力を行うモデルを利用可能にすることができるとは限らない。
本願は、上記に鑑みてなされたものであって、複数種別の出力を行うモデルを利用可能にする情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラムを提供することを目的とする。
本願に係る情報処理装置は、機械学習のモデルの学習に用いる入力用データと、当該入力用データに含まれる認識対象を示す正解データと、前記認識対象に関連する分類結果を示す分類ラベルとを含む学習用データを取得する取得部と、前記学習用データを用いて、データの入力に応じて、前記正解データに対応する第1出力と前記分類ラベルに対応する第2出力とを出力する前記モデルを学習する学習部と、を備えたことを特徴とする。
実施形態の一態様によれば、複数種別の出力を行うモデルを利用可能にすることができるという効果を奏する。
図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。 図2は、実施形態に係る情報処理装置の構成例を示す図である。 図3は、実施形態に係る学習用データ記憶部の一例を示す図である。 図4は、実施形態に係るモデル情報記憶部の一例を示す図である。 図5は、実施形態に係る端末装置の構成例を示す図である。 図6は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。 図7は、実施形態に係る端末装置による処理の一例を示すフローチャートである。 図8は、ハードウェア構成の一例を示す図である。
以下に、本願に係る情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.はじめに〕
近年、音声認識等に利用されるモデル(「音声認識モデル」ともいう)に、End-to-Endモデル(「E2Eモデル」ともいう)が用いられている。E2Eモデルは、例えば1つのニューラルネットワークで構成されるモデルである。E2Eモデルは、ユーザが利用するデバイス(端末装置10等)で完結する音声認識の処理に適している。音声データを入力してその音声データに対応する文字データを出力させる音声文字変換等の音声認識モデルにおいて、入力された音声データに対応する認識結果が出力される。このような音声認識モデルでは、従来は入力データに対応する文字データ(テキスト)等1つの種別の出力を行う。
一方で、以下に示す情報処理装置100が学習するモデルは、入力用データに含まれる認識対象の認識結果を示す出力(「第1出力」ともいう)と、認識対象に関連する分類結果を示す出力(「第2出力」ともいう)との複数の種別の出力を行う。これにより、情報処理装置100が学習するモデルは、認識対象に関連する分類結果に関連する特徴を加味して学習される。そのため、情報処理装置100が学習するモデルは、認識対象に関連する分類を加味しつつ、入力用データの特徴を抽出し、第1出力を出力するため、第1出力に関する認識精度を向上させることができる。
また、入力に音声データとその音声データが検知された場所を示すラベル等の複数種別の情報の入力を用いる場合、推論時にも複数種別の情報を入力する必要となる。そのため、モデルの利用する場面において利便性が低く、その情報を入力として用意できない場合、モデルを利用できなかったり、推論の精度が低下したりする。一方で、情報処理装置100が学習するモデルは、入力用データとして、以下に示すように例えば音声データ等の1つのデータのみでよいため、推論時にも複数種別の情報を入力する必要がない。そのため、情報処理装置100は、認識精度を向上させつつ、利便性の高いモデルを学習することができる。
(実施形態)
〔2.情報処理〕
ここから、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。まず、情報処理システム1の構成について説明する。
図1に示すように、情報処理システム1は、端末装置10と、情報処理装置100とが含まれる。端末装置10と、情報処理装置100とは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。なお、図1に示した情報処理システム1には、複数台の端末装置10や、複数台の情報処理装置100が含まれてもよい。
情報処理装置100は、機械学習のモデルの学習に用いる入力用データと、入力用データに含まれる認識対象を示す正解データと、認識対象に関連する分類結果を示す分類ラベルとを含む学習用データを用いて、正解データに対応する第1出力と分類ラベルに対応する第2出力とを出力するモデルを学習する情報処理装置である。情報処理装置100は、音声文字変換結果である第1出力と、分類結果を示す第2出力との2つの種別の出力を行うモデルM1を学習し、端末装置10に提供する。なお、モデルM1のネットワーク構成は、第1出力及び第2出力の出力が可能であればどのようなネットワーク構成であってもよく、E2Eモデルであってもよい。
端末装置10は、ユーザによって利用されるデバイス(コンピュータ)である。端末装置10は、ユーザによる音声入力を受け付ける。端末装置10は、ユーザによる操作を受け付ける。端末装置10は、情報処理装置100から提供されたモデルを用いて推論を行う。
また、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。なお、端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1の例では、端末装置10がタッチパネル機能を有するスマートフォンである場合を示す。
以下、図1を用いて、情報処理の一例を説明する。図1では、ユーザがユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)である場合を示す。また、図1では、情報処理装置100が音声データの入力に対して、その音声データが変換された文字データである第1出力、及びその音声データが検知(収集)された場所を分類する分類ラベルである第2出力を出力するモデルM1を学習する場合を一例として説明する。なお、分類ラベルは場所の分類に限らず、様々な対象の分類を示すものであってもよいが、この点については後述する。
まず、情報処理装置100は、機械学習に用いる学習用データ群DS1を取得する(ステップS11)。学習用データ群DS1には、モデルの入力として用いられる入力用データと、その入力用データに対応する正解データ及び分類ラベルとのセット(組合せ)が複数含まれる。例えば、入力用データである音声データDT1は、正解データRT1と分類ラベルCL1とが対応付けられている。この場合、正解データRT1は、音声データDT1が文字変換された文字データ(文字列)であり、分類ラベルCL1は、音声データDT1が検知(収集)された場所の分類が「カフェ」であることを示す値(例えば1等)であるものとする。
そして、情報処理装置100は、学習用データ群DS1を用いて、文字データである第1出力と、音声データの検知場所を示す分類ラベルである第2出力との2つの種別の出力を行うモデルM1を学習する(ステップS12)。図1では、音声データである入力用データINの入力層への入力に応じて、出力層から文字データである第1出力OT1と、音声データの検知場所を示す分類ラベルである第2出力OT2を出力するモデルM1を概念的に示す。
情報処理装置100は、音声データDT1が入力された場合に、第1出力OT1として正解データRT1が出力され、第2出力OT2として分類ラベルCL1が出力されるようにモデルM1の重み等のパラメータを学習する。また、音声データDT2が入力された場合に、第1出力OT1として正解データRT2が出力され、第2出力OT2として分類ラベルCL2が出力されるようにモデルM1の重み等のパラメータを学習する。これにより、情報処理装置100は、第1出力と第2出力との2つの種別の出力を行うモデルM1を生成する。モデルM1の学習処理には、任意の手法が採用可能である。
例えば、情報処理装置100は、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100は、学習処理により、ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を調整する。このように、情報処理装置100は、モデルM1における出力(第1出力及び第2出力)と、入力に対応する正解(正解データ及び分類ラベル)との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理によりモデルM1を学習する。例えば、情報処理装置100は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことによりモデルM1を生成する。これにより、情報処理装置100は、モデルM1のパラメータを学習する学習処理を行うことができる。
そして、情報処理装置100は、学習したモデルM1をユーザU1が利用する端末装置10に提供する(ステップS13)。モデルM1を受信した端末装置10は、モデルM1を利用してユーザU1の発話も文字に書き起こす音声文字変換処理(推論)を実行する。この点について以下説明する。
まず、ユーザU1が「XXXX」と発話する。なお、「XXXX」は具体的な内容を含む発話であるものとする。端末装置10は、ユーザU1の発話PAを検知し、ユーザU1の発話PAである「XXXX」の音声データを入力として受け付ける(ステップS14)。
そして、端末装置10は、入力として受け付けた「XXXX」の音声データと、モデルM1とを利用して推論処理を行う(ステップS15)。端末装置10は、「XXXX」の音声データをモデルM1に入力し、モデルM1に文字データ及び分類ラベルを出力させることにより、音声を文字に変換するとともに、ユーザU1が発話PAを行った場所の分類を推定する処理(推論処理)を行う。図1では、「XXXX」の音声データが入力されたモデルM1は、「XXXX」の文字データ(第1出力)と、発話PAを行った場所の分類結果がカフェであることを示す分類ラベル(第2出力)を出力する。
そして、端末装置10は、推論結果である「XXXX」の文字データを表示してもよい(ステップS16)。例えば、端末装置10は、文字列「XXXX」を画面に表示する。なお、端末装置10は、分類ラベルを表示してもよい。
また、端末装置10は、音声データ、その音声データに対応する文字データである正解データ、及びその音声データに対応する分類ラベルを学習用データとして情報処理装置100に送信してもよい(ステップS17)。この場合、情報処理装置100は、端末装置10から受信した学習用データを用いて、モデルM1のパラメータを更新してもよい。
上述したように、情報処理装置100は、音声データを入力として、その音声データが変換された文字データと、音声データの検知場所を示す分類ラベルとの2つの種別の出力を行うモデルM1を適切に学習することができる。図1の例では、情報処理装置100は、分類ラベルを出力するE2Eの音声認識モデルであるモデルM1を適切に学習することができる。したがって、情報処理装置100は、複数種別の出力を行うモデルを利用可能にすることができる。また、情報処理装置100は、分類ラベルを出力することで音声文字変換の精度が改善することができる。例えば、情報処理装置100は、認識対象に関連する分類を加味しつつ、入力用データの特徴を抽出し、音声文字変換の結果を出力するモデルM1を学習するため、分類ラベルの出力により音声文字変換の精度を向上させたモデルM1を学習することができる。また、端末装置10は、音声データが変換された文字データと、音声データの検知場所を示す分類ラベルとの2つの種別の出力するモデルを用いて推論処理を行うことができるため、適切なモデルを利用した処理を行うことができる。したがって、端末装置10は、複数種別の出力を行うモデルを利用した処理を行うことができる。
〔2-1.分類ラベル〕
なお、上記の例では、分類ラベルが音声データが検知(収集)された場所の分類を示す場合を示したが、分類ラベルは、認識対象に関連する分類結果を示すものであればどのような対象の分類であってもよい。分類ラベルは、入力用データに含まれる情報のうち、認識対象以外の情報の種別を示すものである。つまり、分類ラベルは、入力用データのうち認識対象となるデータ以外のデータの分類結果を示すものであってもよい。また、分類ラベルは、入力用データのうち、認識対象となるデータから認識される認識結果以外の各種情報であってもよい。また、分類ラベルは、入力用データが取得された際の各種コンテキストを示すものであってもよい。このように、分類ラベルは、認識対象となるデータから認識結果を認識する認識処理において影響を及ぼしうる任意の要素であって、入力用データから取得もしくは推定可能な要素、もしくは入力用データに付随する各種の要素の分類結果が採用可能である。この点について以下例示を列挙する。なお、図1と同様の点については適宜説明を省略する。また、以下に示す各モデルのネットワーク構成はモデルM1と同様であってもよい。
〔2-1-1.ユーザ関連〕
例えば、モデルが出力する分類ラベル(第2出力)は、入力用データが検知された場所に限らず、入力用データに関連する様々なコンテキストの分類結果であってもよい。例えば、モデルが出力する分類ラベル(第2出力)は、入力用データに含まれる発話を行ったユーザに関連するコンテキストの分類結果であってもよい。
〔2-1-2.周囲〕
モデルが出力する分類ラベル(第2出力)は、発話を行ったユーザの発話以外の分類結果を示してもよい。例えば、モデルが出力する分類ラベル(第2出力)は、入力用データに含まれる発話を行ったユーザの周囲の状況の分類結果であってもよい。この場合、情報処理装置100は、ユーザの周囲の状況の分類結果を示す分類ラベルを含む学習用データを用いて、ユーザの周囲の状況の分類結果を示す第2出力と第1出力とを出力するモデル(「モデルM2」とする)を学習する。
情報処理装置100は、ユーザの周囲が騒がしいか否かを示す分類ラベル、すなわちユーザの発話以外のノイズが多いか否かを示す分類ラベルを第2出力として出力するモデルM2を学習する。この場合、分類ラベルは、ユーザの周囲が騒がしい(ノイズが多い)程、大きい値となってもよい。
情報処理装置100は、モデルM2の入力として用いられる入力用データと、その入力用データに対応する正解データ及び分類ラベルとのセット(組合せ)を複数含む学習用データ(「学習用データDS2」とする)を用いて、モデルM2を学習する。例えば、学習用データDS2の正解データは、入力用データである音声データが変換された文字データであり、学習用データDS2の分類ラベルは、入力用データである音声データにおいて発話したユーザの周囲の騒がしさの度合いを示す値である。
情報処理装置100は、学習用データDS2を用いて、各入力用データが入力された場合に、その入力用データに対応する正解データ及び分類ラベルが出力されるようにモデルM2のパラメータを学習する。例えば、情報処理装置100は、音声データが入力された場合に、音声データが変換された文字データが第1出力として出力され、音声データに含まれるノイズの多寡を示す分類ラベルを第2出力として出力されるようにモデルM2を学習する。
〔2-1-3.ユーザ属性〕
モデルが出力する分類ラベル(第2出力)は、入力用データに含まれる発話を行ったユーザの属性の分類結果であってもよい。この場合、情報処理装置100は、ユーザの属性の分類結果を示す分類ラベルを含む学習用データを用いて、ユーザの属性の分類結果を示す第2出力と第1出力とを出力するモデル(「モデルM3」とする)を学習する。以下では、ユーザの年齢をユーザの属性の一例として説明するが、ユーザの属性は、年齢に限らず、性別、身長、出身地等の様々な属性(要素)であってもよい。
情報処理装置100は、ユーザの年齢を示す分類ラベル(例えば10代、20代等の段階的な分類)を第2出力として出力するモデルM3を学習する。情報処理装置100は、モデルM3の入力として用いられる入力用データと、その入力用データに対応する正解データ及び分類ラベルとのセット(組合せ)を複数含む学習用データ(「学習用データDS3」とする)を用いて、モデルM3を学習する。例えば、学習用データDS3の正解データは、入力用データである音声データが変換された文字データであり、学習用データDS3の分類ラベルは、入力用データである音声データにおいて発話したユーザの年齢を示す値である。
情報処理装置100は、学習用データDS3を用いて、各入力用データが入力された場合に、その入力用データに対応する正解データ及び分類ラベルが出力されるようにモデルM3のパラメータを学習する。例えば、情報処理装置100は、音声データが入力された場合に、音声データが変換された文字データが第1出力として出力され、音声データに含まれる発話を行ったユーザの年齢を示す分類ラベルを第2出力として出力されるようにモデルM3を学習する。
〔2-1-4.端末装置〕
モデルが出力する分類ラベル(第2出力)は、ユーザが利用する端末装置10の分類結果であってもよい。例えば、モデルが出力する分類ラベル(第2出力)は、ユーザの発話(音声データ)を検知(収集)した端末装置10の機種の分類結果であってもよい。この場合、情報処理装置100は、端末装置10の機種の分類結果を示す分類ラベルを含む学習用データを用いて、端末装置10の機種の分類結果を示す第2出力と第1出力とを出力するモデル(「モデルM4」とする)を学習する。
情報処理装置100は、端末装置10の機種を示す分類ラベル(例えば製品A、製品B等の製品の分類)を第2出力として出力するモデルM4を学習する。情報処理装置100は、モデルM4の入力として用いられる入力用データと、その入力用データに対応する正解データ及び分類ラベルとのセット(組合せ)を複数含む学習用データ(「学習用データDS4」とする)を用いて、モデルM4を学習する。例えば、学習用データDS4の正解データは、入力用データである音声データが変換された文字データであり、学習用データDS4の分類ラベルは、入力用データである音声データを検知した端末装置10の機種を示す値である。
情報処理装置100は、学習用データDS4を用いて、各入力用データが入力された場合に、その入力用データに対応する正解データ及び分類ラベルが出力されるようにモデルM4のパラメータを学習する。例えば、情報処理装置100は、音声データが入力された場合に、音声データが変換された文字データが第1出力として出力され、音声データを検知した端末装置10の機種を示す分類ラベルを第2出力として出力されるようにモデルM4を学習する。
なお、上述は一例に過ぎず、分類できるものであれば、どのような対象の分類ラベルを用いてもよい。
また、情報処理装置100は、複数の第2出力を出力するようにモデルを学習してもよい。すなわち、情報処理装置100は、1つの第1出力と、2つ以上の第2出力を出力するモデルを生成してもよい。この場合、情報処理装置100は、上述した各種の分類ラベルから選択された2つ以上の分類ラベルを出力とするモデルを学習する。例えば、情報処理装置100は、音声データが入力された場合に、音声データが変換された文字データと、音声データが検知(収集)された場所を示す第1分類ラベルと、音声データに含まれるユーザの属性を示す第2分類ラベルと出力するモデルを学習する。
〔2-2.推論対象〕
なお、学習するモデルの用途は、音声文字変換に限らず、他の音声認識に関する様々な用途であってもよい。また、モデルの入力は、音声データに限らず、画像データ等様々な種別のデータが対象であってもよい。例えば、モデルの入力が画像データである場合、学習されるモデルの用途は、一般物体認識等の各種の画像認識に関する用途であってもよい。この場合、分類ラベルは、画像に含まれる物体以外の分類を示すものであってもよい。例えば、分類ラベルは、画像に含まれる人(ユーザ)の年齢等のユーザの属性であってもよく、画像が示すシーンの状況(昼、夜、室内、屋外等)などのコンテキストであってもよい。
〔3.情報処理装置の構成〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、所定の通信網(ネットワーク)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、学習用データ記憶部121と、モデル情報記憶部122とを有する。
(学習用データ記憶部121)
実施形態に係る学習用データ記憶部121は、学習に用いるデータに関する各種情報を記憶する。学習用データ記憶部121は、学習に用いる学習データ(データセット)を記憶する。図3は、本開示の実施形態に係る学習用データ記憶部の一例を示す図である。例えば、学習用データ記憶部121は、学習に用いる学習データや精度評価(測定)に用いる評価用データ等の種々のデータに関する各種情報を記憶する。図3に、実施形態に係る学習用データ記憶部121の一例を示す。図3の例では、学習用データ記憶部121は、「データセットID」、「データID」、「データ」、「正解データ」、「分類ラベル」といった項目が含まれる。
「データセットID」は、データセットを識別するための識別情報を示す。「データID」は、各学習用データを識別するための識別情報を示す。また、「データ」は、データIDにより識別されるデータを示す。「データ」は、モデルの入力として用いられるデータ(入力用データ)を示す。図3の例では、入力用データは、種別が「音声」である音声データの場合を示す。
「正解データ」は、対応するデータ(入力用データ)に対応する正解を示す。図3の例では、「正解データ」は、入力用データである音声データが変換された文字データ(文字列)を示す。「正解データ」は、対応するデータ(入力用データ)がモデルに入力された場合に、モデルが出力することが期待される第1出力(文字データ)を示す。
「分類ラベル」は、対応するデータ(入力用データ)に対応する分類結果を示す。図3の例では、「分類ラベル」は、入力用データである音声データが検知された際のコンテキストを推定するための分類を示す。「分類ラベル」は、対応するデータ(入力用データ)がモデルに入力された場合に、モデルが出力することが期待される第2出力(分類ラベル)を示す。
例えば、「分類ラベル」は、入力用データである音声データが検知された場所を推定するための分類を示す。例えば、分類ラベルが「1」の場合は「カフェ」であることを示し、分類ラベルが「2」の場合は「自宅」であることを示してもよい。記憶部120は、分類ラベルと各コンテキストの対応付けを示す情報を記憶してもよい。なお、「分類ラベル」は、1つに限らず、モデルが出力する分類ラベルの数に応じた数であってもよい。例えば、場所と発話ユーザの属性を推定する場合、場所を示すラベルを登録する「分類ラベル#1」と、ユーザの属性を示すラベルを登録する「分類ラベル#2」の複数の項目が含まれてもよい。すなわち、「分類ラベル」は、2つ以上のコンテキストの各々に対応する分類ラベルが記憶されてもよい。なおユーザの属性は、年齢や性別等のデモグラフィック属性やサイコグラフィック属性の様々なユーザの属性を示す情報であってもよい。
図3の例では、データセットID「DS1」により識別されるデータセット(データセットDS1)には、データID「DID1」、「DID2」、「DID3」等により識別される複数のデータが含まれることを示す。
データID「DID1」により識別されるデータDT1は、正解データが「RT1」であることを示す。図3の例では「RT1」のように抽象的に図示するが、「正解データ」には、音声データ(入力用データ)に含まれる認識対象(ユーザの発話)が変換された文字データ(文字列)であるものとする。
データDT1は、分類ラベルが「CL1」であることを示す。図3の例では「CL1」のように抽象的に図示するが、「分類ラベル」には、認識対象に関連する分類結果を示す分類ラベル(値)であるものとする。
なお、学習用データ記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、学習用データ記憶部121は、音声や画像等の教師データの種別を示す情報を各データに対応付けて記憶する。例えば、学習用データ記憶部121は、データの種別を示す情報を各データに対応付けて記憶する。
例えば、学習用データ記憶部121は、各データが学習データであるか、評価用データであるか等を特定可能に記憶してもよい。例えば、学習用データ記憶部121は、学習データと評価用データとを区別可能に記憶する。学習用データ記憶部121は、各データが学習データや評価用データであるかを識別する情報を記憶してもよい。情報処理装置100は、学習データとして用いられる各データと正解データと分類ラベルとに基づいて、モデルを学習する。情報処理装置100は、評価用データとして用いられる各データと正解データと分類ラベルとに基づいて、モデルの精度を測定する。情報処理装置100は、評価用データを入力した場合にモデルが出力する出力結果(第1出力、第2出力)と、正解データ及び分類ラベルとを比較した結果を収集することにより、モデルの精度を測定する。
(モデル情報記憶部122)
実施形態に係るモデル情報記憶部122は、モデルに関する情報を記憶する。例えば、モデル情報記憶部122は、学習処理により学習(生成)された学習済みモデル(モデル)の情報(モデルデータ)を記憶する。図4は、本開示の第1の実施形態に係るモデル情報記憶部の一例を示す図である。図4に、第1の実施形態に係るモデル情報記憶部122の一例を示す。図4に示した例では、モデル情報記憶部122は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
「モデルID」は、モデルを識別するための識別情報を示す。「用途」は、対応するモデルの用途を示す。「モデルデータ」は、モデルのデータを示す。図4等では「モデルデータ」に「MDT1」といった概念的な情報が格納される例を示したが、実際には、モデルの構成(ネットワーク構成)の情報やパラメータに関する情報等、そのモデルを構成する種々の情報が含まれる。例えば、「モデルデータ」には、ネットワークの各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。
図4に示す例では、モデルID「M1」により識別されるモデル(モデルM1)は、用途が「音声文字変換」、「コンテキスト推定」であることを示す。すなわち、モデルM1は、入力用データを文字起こしした文字データと、その入力用データに関連するコンテキストを推定する情報とを出力するモデルであることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。
なお、モデル情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図2に示すように、制御部130は、取得部131と、決定部132と、学習部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131)
取得部131は、記憶部120から各種の情報を取得する。取得部131は、学習用データ記憶部121から学習に用いるデータを取得する。取得部131は、モデル情報記憶部122からモデルの情報を取得する。
取得部131は、機械学習のモデルの学習に用いる入力用データと、当該入力用データに含まれる認識対象を示す正解データと、認識対象に関連する分類結果を示す分類ラベルとを含む学習用データを取得する。取得部131は、音声データである入力用データと、当該入力用データに含まれる音声の音声認識の結果を示す正解データとを含む学習用データを取得する。取得部131は、入力用データに対応する文字データである正解データを含む学習用データを取得する。取得部131は、入力用データに関連するコンテキストの分類結果を示す分類ラベルを含む学習用データを取得する。
取得部131は、入力用データが検知された場所の分類結果を示す分類ラベルを含む学習用データを取得する。取得部131は、入力用データに含まれる発話を行ったユーザに関連するコンテキストの分類結果を示す分類ラベルを含む学習用データを取得する。取得部131は、ユーザの周囲の状況の分類結果を示す分類ラベルを含む学習用データを取得する。取得部131は、ユーザの発話以外の分類結果を示す分類ラベルを含む学習用データを取得する。取得部131は、ユーザの属性の分類結果を示す分類ラベルを含む学習用データを取得する。取得部131は、ユーザが利用する端末装置の分類結果を示す分類ラベルを含む学習用データを取得する。取得部131は、入力用データに含まれる情報のうち、認識対象以外の情報の種別を示す分類ラベルを取得する。
取得部131は、通信部110を介して、端末装置10から情報を受信する。取得部131は、端末装置10から学習用データを取得する。取得部131は、端末装置10において、音声文字変換処理の対象となった音声データと、その音声データに対応する第1出力及び第2出力、またユーザが修正した修正結果とのセット(組合せ)を学習用データとして端末装置10から収集する。
(決定部132)
決定部132は、種々の情報を決定する。例えば、決定部132は、分類ラベルを決定する。決定部132は、認識対象に関連する分類結果を決定することにより、モデルに学習させる分類ラベルを決定する。決定部132は、入力用データに関連するコンテキストをモデルに分類させる対象に決定する。決定部132は、音声データが検知された場所をモデルに分類させる対象に決定する。
(学習部133)
学習部133は、モデルを学習する。学習部133は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を学習する。学習部133は、学習用データ記憶部121に記憶された情報に基づいて、各種情報を学習する。学習部133は、学習により生成したモデルをモデル情報記憶部122に格納する。
学習部133は、学習用データを用いて、データの入力に応じて、正解データに対応する第1出力と分類ラベルに対応する第2出力とを出力するモデルを学習する。学習部133は、入力された音声データに対する音声認識の結果を示す第1出力と第2出力とを出力するモデルを学習する。学習部133は、入力された音声データが変換された文字データである第1出力と第2出力とを出力するモデルを学習する。
学習部133は、第1出力と、入力されたデータに関連するコンテキストの分類結果を示す第2出力とを出力するモデルを学習する。学習部133は、第1出力と、入力されたデータが検知された場所の分類結果を示す第2出力とを出力するモデルを学習する。学習部133は、第1出力と、入力されたデータに含まれる発話を行ったユーザに関連するコンテキストの分類結果を示す第2出力とを出力するモデルを学習する。学習部133は、第1出力と、ユーザの周囲の状況の分類結果を示す第2出力とを出力するモデルを学習する。学習部133は、第1出力と、ユーザの発話以外の分類結果を示す第2出力とを出力するモデルを学習する。学習部133は、第1出力と、ユーザの属性の分類結果を示す第2出力とを出力するモデルを学習する。学習部133は、第1出力と、ユーザが利用する端末装置の分類結果を示す第2出力とを出力するモデルを学習する。
学習部133は、モデル(ネットワーク)のパラメータを学習する。学習部133は、接続されたノード間の接続係数(重み)等のパラメータを学習する。学習部133は、種々の機械学習に関する技術を用いて、モデルを学習する。学習部133は、モデルに入力するデータと、そのデータが入力された場合の出力を示す正解データ及び分類ラベルとを用いて行う学習処理、すなわち教師有り学習の手法によりモデルのパラメータを学習する。なお、上記は一例であり、学習部133は、モデルのパラメータを学習可能であれば、どのような学習処理により、モデルのパラメータを学習してもよい。
(提供部134)
提供部134は、通信部110を介して、端末装置10へ情報を送信する。提供部134は、端末装置10へモデルを提供する。例えば、提供部134は、端末装置10へ音声文字変換に用いるモデルM1を送信する。
〔4.端末装置の構成〕
次に、図5を用いて、実施形態に係る端末装置10の構成について説明する。図5は、実施形態に係る端末装置10の構成例を示す図である。図5に示すように、端末装置10は、通信部11と、記憶部12と、入力部13と、表示部14と、制御部15とを有する。なお、端末装置10は、各種情報を音声出力するための音声出力部(例えばスピーカ等)を有してもよい。
(通信部11)
通信部11は、例えば、通信回路等によって実現される。そして、通信部11は、図示しない所定の通信網と有線または無線で接続され、情報処理装置100との間で情報の送受信を行う。
(記憶部12)
記憶部12は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、例えば、端末装置10にインストールされているアプリケーション(例えば音声文字変換アプリ等)に関する情報、例えばプログラム等を記憶する。また、記憶部12は、情報処理装置100から提供されたモデルを記憶する。例えば、記憶部12は、モデルM1を記憶する。
(入力部13)
入力部13は、ユーザからの各種操作を受け付ける。入力部13は、音声を検知する機能を有し、ユーザの発話による音声入力を受け付ける。入力部13は、音声を検知するマイクにより検知されたユーザによる発話を入力として受け付ける。
また、入力部13は、タッチパネル機能により表示面を介してユーザからの各種操作を受け付けてもよい。また、入力部13は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
例えば、入力部13は、端末装置10の表示部14を介してユーザの指定操作等の操作を受け付ける。例えば、入力部13は、タッチパネルの機能によりユーザの操作を受け付ける受付部として機能する。この場合、入力部13と受付部152とは一体であってもよい。なお、入力部13によるユーザの操作の検知方式には、タブレット端末では主に静電容量方式が採用されるが、他の検知方式である抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式など、ユーザの操作を検知できタッチパネルの機能が実現できればどのような方式を採用してもよい。
(表示部14)
表示部14は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。
(制御部15)
制御部15は、コントローラであり、例えば、CPUやMPU等によって、端末装置10内部の記憶部12などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、インストールされているアプリケーション(例えばメッセージアプリ等)のプログラムが含まれる。また、制御部15は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
図5に示すように、制御部15は、受信部151と、受付部152と、推論部153と、処理部154と、送信部155とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図5に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
(受信部151)
受信部151は、通信部11を介して、情報処理装置100から情報を受信する。受信部151は、情報処理装置100から提供されたモデルを受信する。
受信部151は、機械学習のモデルの学習に用いる入力用データと、当該入力用データに含まれる認識対象を示す正解データと、認識対象に関連する分類結果を示す分類ラベルとを含む学習用データを用いて生成されたモデルであって、データの入力に応じて、正解データに対応する第1出力と分類ラベルに対応する第2出力とを出力するモデルを受信する。受信部151は、音声認識に関するモデルを受信する。受信部151は、音声データの入力に応じて、当該音声データに対応する文字データを第1出力として出力するモデルを受信する。
(受付部152)
受付部152は、各種情報を受け付ける。例えば、受付部152は、入力部13を介してユーザによる入力を受け付ける。受付部152は、ユーザによる操作を受け付ける。受付部152は、表示部14により表示された情報に対するユーザの操作を受け付ける。受付部152は、ユーザによる発話を入力として受け付ける。例えば、受付部152は、ユーザU1による「XXXX」という発話を入力として受け付ける。
(推論部153)
推論部153は、推論処理を行う。推論部153は、記憶部12に記憶されたモデルを用いて、推論処理を行う。推論部153は、受信部151により受信されたモデルを用いて推論を行う。推論部153は、受信部により受信されたモデルにデータを入力することにより、当該データに対応する第1出力と第2出力とを生成する推論処理を行う。推論部153は、モデルに音声データを入力することにより、当該音声データに対応する推論処理を行う。推論部153は、モデルに音声データを入力することにより、当該音声データに対応する文字データである第1出力と第2出力とを生成する推論処理を行う。
(処理部154)
処理部154は、推論部153の推論結果を用いて各種の処理を実行する。処理部154は、推論部153の推論結果を表示部14に表示する。また、処理部154は、推論において入力に用いた音声データと、その音声データを書き起こした文字データと分類ラベルとのセットを学習用データとして、情報処理装置100に提供する。処理部154は、推論において入力に用いた音声データと、その音声データに対応する出力結果をユーザが修正したデータとのセットを学習用データとして、情報処理装置100に提供する。処理部154は、学習用データを送信部155に送信することを要求する。
(送信部155)
送信部155は、通信部11を介して、情報処理装置100へ情報を送信する。送信部155は、処理部154からの要求に応じて、通信部11を介して、学習用データを情報処理装置100に送信する。送信部155は、推論において入力に用いた音声データと、その音声データを書き起こした文字データと分類ラベルとのセットを学習用データとして、情報処理装置100に送信する。送信部155は、推論において入力に用いた音声データと、その音声データに対応する出力結果をユーザが修正したデータとのセットを学習用データとして、情報処理装置100に送信する。
なお、上述した制御部15による各処理は、例えば、JavaScript(登録商標)などにより実現されてもよい。また、上述した表示処理が所定のアプリケーション(例えば音声文字変換アプリ等)により行われる場合や推論処理等の処理が専用アプリにより行われる場合、制御部15は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。
〔5.処理フロー〕
次に、図6を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図6は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。
図6に示すように、情報処理装置100は、機械学習のモデルの学習に用いる入力用データと、正解データと、分類ラベルとを含む学習用データを取得する(ステップS101)。すなわち、情報処理装置100は、機械学習のモデルの学習に用いる入力用データと、当該入力用データに含まれる認識対象を示す正解データと、認識対象に関連する分類結果を示す分類ラベルとを含む学習用データを取得する。
情報処理装置100は、データの入力に応じて、正解データに対応する第1出力と分類ラベルに対応する第2出力とを出力するモデルを学習する(ステップS102)。情報処理装置100は、学習したモデルを端末装置10へ提供する(ステップS103)。
次に、図7を用いて端末装置10におけるモデルを用いた推論等の処理の流れを示す。図7は、実施形態に係る端末装置による処理の一例を示すフローチャートである。
図7に示すように、端末装置10は、モデルを受信していない場合(ステップS201:No)、モデルを受信するまで待機する。端末装置10は、モデルを受信した後(ステップS201:Yes)、音声入力を受け付けていない場合(ステップS202:No)、音声入力を受け付けるまで待機する。
端末装置10は、音声入力を受け付けた場合(ステップS202:Yes)、モデルに音声入力に対応する音声データを入力することにより、音声データに対応する第1出力と第2出力とを生成する推論処理を実行する(ステップS203)。
そして、端末装置10は、推論結果を表示する(ステップS204)。また、端末装置10は、音声データと正解データと分類ラベルとのセットを、学習用データとして情報処理装置100へ送信してもよい。
〔6.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、学習部133とを有する。取得部131は、機械学習のモデルの学習に用いる入力用データと、当該入力用データに含まれる認識対象を示す正解データと、認識対象に関連する分類結果を示す分類ラベルとを含む学習用データを取得する。学習部133は、学習用データを用いて、データの入力に応じて、正解データに対応する第1出力と分類ラベルに対応する第2出力とを出力するモデルを学習する。
これにより、実施形態に係る情報処理装置100は、入力用データに含まれる認識対象を示す第1出力と、認識対象に関連する分類結果を示す第2出力との複数の種別の出力を行うモデルを学習することができる。したがって、情報処理装置100は、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、音声データである入力用データと、当該入力用データに含まれる音声の音声認識の結果を示す正解データとを含む学習用データを取得する。学習部133は、入力された音声データに対する音声認識の結果を示す第1出力と第2出力とを出力するモデルを学習する。
これにより、実施形態に係る情報処理装置100は、音声認識に関して複数の種別の出力を行うモデルを柔軟に学習することができ、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、入力用データに対応する文字データである正解データを含む学習用データを取得する。学習部133は、入力された音声データが変換された文字データである第1出力と第2出力とを出力するモデルを学習する。
これにより、実施形態に係る情報処理装置100は、音声文字変換に関して複数の種別の出力を行うモデルを柔軟に学習することができ、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、入力用データに関連するコンテキストの分類結果を示す分類ラベルを含む学習用データを取得する。学習部133は、第1出力と、入力されたデータに関連するコンテキストの分類結果を示す第2出力とを出力するモデルを学習する。
これにより、実施形態に係る情報処理装置100は、認識結果を示す第1出力と、入力用データに関連するコンテキストの分類結果を示す第2出力を行うモデルを柔軟に学習することができ、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、入力用データが検知された場所の分類結果を示す分類ラベルを含む学習用データを取得する。学習部133は、第1出力と、入力されたデータが検知された場所の分類結果を示す第2出力とを出力するモデルを学習する。
これにより、実施形態に係る情報処理装置100は、認識結果を示す第1出力と、入力用データが検知された場所の分類結果を示す第2出力を行うモデルを柔軟に学習することができ、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、入力用データに含まれる発話を行ったユーザに関連するコンテキストの分類結果を示す分類ラベルを含む学習用データを取得する。学習部133は、第1出力と、入力されたデータに含まれる発話を行ったユーザに関連するコンテキストの分類結果を示す第2出力とを出力するモデルを学習する。
これにより、実施形態に係る情報処理装置100は、認識結果を示す第1出力と、発話を行ったユーザに関連するコンテキストの分類結果を示す第2出力を行うモデルを柔軟に学習することができ、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザの発話以外の分類結果を示す分類ラベルを含む学習用データを取得する。学習部133は、第1出力と、ユーザの発話以外の分類結果を示す第2出力とを出力するモデルを学習する。
これにより、実施形態に係る情報処理装置100は、認識結果を示す第1出力と、ユーザの発話以外の分類結果を示す第2出力を行うモデルを柔軟に学習することができ、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザの周囲の状況の分類結果を示す分類ラベルを含む学習用データを取得する。学習部133は、第1出力と、ユーザの周囲の状況の分類結果を示す第2出力とを出力するモデルを学習する。
これにより、実施形態に係る情報処理装置100は、認識結果を示す第1出力と、発話を行ったユーザの周囲の状況の分類結果を示す第2出力を行うモデルを柔軟に学習することができ、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザの属性の分類結果を示す分類ラベルを含む学習用データを取得する。学習部133は、第1出力と、ユーザの属性の分類結果を示す第2出力とを出力するモデルを学習する。
これにより、実施形態に係る情報処理装置100は、認識結果を示す第1出力と、発話を行ったユーザの属性の分類結果を示す第2出力を行うモデルを柔軟に学習することができ、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザが利用する端末装置の分類結果を示す分類ラベルを含む学習用データを取得する。学習部133は、第1出力と、ユーザが利用する端末装置の分類結果を示す第2出力とを出力するモデルを学習する。
これにより、実施形態に係る情報処理装置100は、認識結果を示す第1出力と、発話を行ったユーザが利用する端末装置の分類結果を示す第2出力を行うモデルを柔軟に学習することができ、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、入力用データに含まれる情報のうち、認識対象以外の情報の種別を示す分類ラベルを取得する。
これにより、実施形態に係る情報処理装置100は、入力用データに含まれる情報のうち、認識対象以外の情報の種別を示す第2出力を行うモデルを柔軟に学習することができ、複数種別の出力を行うモデルを利用可能にすることができる。
また、実施形態に係る端末装置10は、受信部151と、推論部153とを有する。受信部151は、機械学習のモデルの学習に用いる入力用データと、当該入力用データに含まれる認識対象を示す正解データと、認識対象に関連する分類結果を示す分類ラベルとを含む学習用データを用いて生成されたモデルであって、データの入力に応じて、正解データに対応する第1出力と分類ラベルに対応する第2出力とを出力するモデルを受信する。推論部153は、受信部により受信されたモデルにデータを入力することにより、当該データに対応する第1出力と第2出力とを生成する推論処理を行う。
これにより、実施形態に係る端末装置10は、入力したデータに含まれる認識対象を示す第1出力と、認識対象に関連する分類結果を示す第2出力との複数の種別の出力を行うモデルを用いて推論処理を行うことができる。したがって、端末装置10は、複数種別の出力を行うモデルを利用した処理を行うことができる。
また、実施形態に係る端末装置10おいて、受信部151は、音声認識に関するモデルを受信する。推論部153は、モデルに音声データを入力することにより、当該音声データに対応する推論処理を行う。
これにより、実施形態に係る情報処理装置100は、音声認識に関する第1出力及び第2出力を出力するモデルを用いて推論処理を行うことができるため、複数種別の出力を行うモデルを利用した処理を行うことができる。
また、実施形態に係る端末装置10おいて、受信部151は、音声データの入力に応じて、当該音声データに対応する文字データを第1出力として出力するモデルを受信する。推論部153は、モデルに音声データを入力することにより、当該音声データに対応する文字データである第1出力と第2出力とを生成する推論処理を行う。
これにより、実施形態に係る情報処理装置100は、音声文字変換の結果である第1出力と第2出力との2つの異なる種別の情報を出力するモデルを用いて推論処理を行うことができるため、複数種別の出力を行うモデルを利用した処理を行うことができる。
〔7.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報処理装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。
出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。
また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。
また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が情報処理装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。
〔8.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
例えば、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。また、情報処理装置100と端末装置10とは一体であってもよい。この場合、例えばユーザが利用する端末装置10が情報処理装置100としての機能を有してもよい。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 情報処理システム
100 情報処理装置
120 記憶部
121 学習用データ記憶部
122 モデル情報記憶部
130 制御部
131 取得部
132 決定部
133 学習部
134 提供部
10 端末装置
11 通信部
12 記憶部
13 入力部
14 表示部
15 制御部
151 受信部
152 受付部
153 推論部
154 処理部
155 送信部

Claims (6)

  1. 機械学習のモデルの学習に用いる音声データである入力用データと、当該入力用データに含まれる認識対象を示す正解データと、前記入力用データに含まれるノイズの多寡に基づく分類結果を示す分類ラベルとを含む学習用データを取得する取得部と、
    前記学習用データを用いて、データの入力に応じて、前記正解データに対応する第1出力と前記分類ラベルに対応し、当該データに含まれるノイズの多寡に基づく第2出力とを出力する前記モデルを学習する学習部と、
    を備え、
    前記取得部は、
    前記入力用データが検知された場所の分類結果を示す前記分類ラベルを含む前記学習用データを取得し、
    前記学習部は、
    前記第1出力と、入力されたデータが検知された場所の分類結果を示す前記第2出力とを出力する前記モデルを学習する
    ことを特徴とする情報処理装置。
  2. コンピュータが実行する情報処理方法であって、
    機械学習のモデルの学習に用いる音声データである入力用データと、当該入力用データに含まれる認識対象を示す正解データと、前記入力用データに含まれるノイズの多寡に基づく分類結果を示す分類ラベルとを含む学習用データを取得する取得工程と、
    前記学習用データを用いて、データの入力に応じて、前記正解データに対応する第1出力と前記分類ラベルに対応し、当該データに含まれるノイズの多寡に基づく第2出力とを出力する前記モデルを学習する学習工程と、
    を含み、
    前記取得工程は、
    前記入力用データが検知された場所の分類結果を示す前記分類ラベルを含む前記学習用データを取得し、
    前記学習工程は、
    前記第1出力と、入力されたデータが検知された場所の分類結果を示す前記第2出力とを出力する前記モデルを学習する
    ことを特徴とする情報処理方法。
  3. 機械学習のモデルの学習に用いる音声データである入力用データと、当該入力用データに含まれる認識対象を示す正解データと、前記入力用データに含まれるノイズの多寡に基づく分類結果を示す分類ラベルとを含む学習用データを取得する取得手順と、
    前記学習用データを用いて、データの入力に応じて、前記正解データに対応する第1出力と前記分類ラベルに対応し、当該データに含まれるノイズの多寡に基づく第2出力とを出力する前記モデルを学習する学習手順と、
    をコンピュータに実行させ、
    前記取得手順は、
    前記入力用データが検知された場所の分類結果を示す前記分類ラベルを含む前記学習用データを取得し、
    前記学習手順は、
    前記第1出力と、入力されたデータが検知された場所の分類結果を示す前記第2出力とを出力する前記モデルを学習する
    ことを特徴とする情報処理プログラム。
  4. 機械学習のモデルの学習に用いる音声データである入力用データと、当該入力用データに含まれる認識対象を示す正解データと、前記入力用データに含まれるノイズの多寡に基づく分類結果を示す分類ラベルとを含む学習用データであって、前記入力用データが検知された場所の分類結果を示す前記分類ラベルを含む前記学習用データを用いて生成されたモデルであって、データの入力に応じて、前記正解データに対応する第1出力と前記分類ラベルに対応し、当該データに含まれるノイズの多寡に基づく第2出力とを出力するモデルを受信する受信部と、
    前記受信部により受信された前記モデルにデータを入力することにより、当該データに対応する前記第1出力と、入力されたデータが検知された場所の分類結果を示す前記第2出力とを生成する推論処理を行う推論部と、
    を備えたことを特徴とする端末装置。
  5. 機械学習のモデルの学習に用いる音声データである入力用データと、当該入力用データに含まれる認識対象を示す正解データと、前記入力用データに含まれるノイズの多寡に基づく分類結果を示す分類ラベルとを含む学習用データであって、前記入力用データが検知された場所の分類結果を示す前記分類ラベルを含む前記学習用データを用いて生成されたモデルであって、データの入力に応じて、前記正解データに対応する第1出力と前記分類ラベルに対応し、当該データに含まれるノイズの多寡に基づく第2出力とを出力するモデルを受信する受信工程と、
    前記受信工程により受信された前記モデルにデータを入力することにより、当該データに対応する前記第1出力と、入力されたデータが検知された場所の分類結果を示す前記第2出力とを生成する推論処理を行う推論工程と、
    を含んだことを特徴とする推論方法。
  6. 機械学習のモデルの学習に用いる音声データである入力用データと、当該入力用データに含まれる認識対象を示す正解データと、前記入力用データに含まれるノイズの多寡に基づく分類結果を示す分類ラベルとを含む学習用データであって、前記入力用データが検知された場所の分類結果を示す前記分類ラベルを含む前記学習用データを用いて生成されたモデルであって、データの入力に応じて、前記正解データに対応する第1出力と前記分類ラベルに対応し、当該データに含まれるノイズの多寡に基づく第2出力とを出力するモデルを受信する受信手順と、
    前記受信手順により受信された前記モデルにデータを入力することにより、当該データに対応する前記第1出力と、入力されたデータが検知された場所の分類結果を示す前記第2出力とを生成する推論処理を行う推論手順と、
    を端末装置に実行させることを特徴とする推論プログラム。
JP2020155830A 2020-09-16 2020-09-16 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム Active JP7408518B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020155830A JP7408518B2 (ja) 2020-09-16 2020-09-16 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020155830A JP7408518B2 (ja) 2020-09-16 2020-09-16 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム

Publications (2)

Publication Number Publication Date
JP2022049570A JP2022049570A (ja) 2022-03-29
JP7408518B2 true JP7408518B2 (ja) 2024-01-05

Family

ID=80853958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020155830A Active JP7408518B2 (ja) 2020-09-16 2020-09-16 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム

Country Status (1)

Country Link
JP (1) JP7408518B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087229A (ja) 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2020064253A (ja) 2018-10-19 2020-04-23 ヤフー株式会社 学習装置、検出装置、学習方法、学習プログラム、検出方法、および検出プログラム
JP2020140673A (ja) 2019-03-01 2020-09-03 富士ゼロックス株式会社 学習装置、情報出力装置、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087229A (ja) 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2020064253A (ja) 2018-10-19 2020-04-23 ヤフー株式会社 学習装置、検出装置、学習方法、学習プログラム、検出方法、および検出プログラム
JP2020140673A (ja) 2019-03-01 2020-09-03 富士ゼロックス株式会社 学習装置、情報出力装置、及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
大町 基,単語の表記と素性を同時出力するend-to-end音声認識,日本音響学会 2020年 秋季研究発表会講演論文集CD-ROM[CD-ROM],一般社団法人日本音響学会,2020年08月26日,pp.815-818
早川 友瑛,End-to-End複数言語音声認識モデルにおける様々なマルチタスク学習の検討,日本音響学会 2020年 秋季研究発表会講演論文集CD-ROM[CD-ROM],一般社団法人日本音響学会,2020年08月26日,pp.833-834
松原 拓未,CNN Autoencoderから抽出したボトルネック特徴量を用いた環境音分類,マルチメディア,分散,協調とモバイル(DICOMO2019)シンポジウム論文集[CD-ROM],一般社団法人情報処理学会,2019年06月26日,Vol.2019, No.1,p.339-346,ISSN: 1882-0840

Also Published As

Publication number Publication date
JP2022049570A (ja) 2022-03-29

Similar Documents

Publication Publication Date Title
US10417344B2 (en) Exemplar-based natural language processing
TWI582753B (zh) 用於操作一虛擬助理之方法、系統及電腦可讀儲存媒體
US9760559B2 (en) Predictive text input
US11393459B2 (en) Method and apparatus for recognizing a voice
US20140074470A1 (en) Phonetic pronunciation
US20140278355A1 (en) Using human perception in building language understanding models
JP6983118B2 (ja) 対話システムの制御方法、対話システム及びプログラム
US10678941B2 (en) Privacy focused network sensor device object recognition
US11043215B2 (en) Method and system for generating textual representation of user spoken utterance
US20200150934A1 (en) Voice Interaction Development Tool
KR102253279B1 (ko) 인공지능을 사용하는 키오스크 기반 무인결제시스템 및 그 방법
JP2018067100A (ja) ロボット対話システム
US11163377B2 (en) Remote generation of executable code for a client application based on natural language commands captured at a client device
JP7408518B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム
US11238846B2 (en) Information processing device and information processing method
KR20200082232A (ko) 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법
US20230088228A1 (en) Information processing apparatus, information processing method, and information processing program
JP2023027697A (ja) 端末装置、送信方法、送信プログラム及び情報処理システム
US11430429B2 (en) Information processing apparatus and information processing method
JP7244468B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム
JP7354072B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7093266B2 (ja) 決定装置、決定方法及び決定プログラム
US20190179970A1 (en) Cognitive human interaction and behavior advisor
JP7348150B2 (ja) 学習装置、学習方法、及び学習プログラム
WO2022019159A1 (ja) 情報処理装置、情報処理方法、情報検索装置及び情報検索方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231010

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R150 Certificate of patent or registration of utility model

Ref document number: 7408518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150