JP2020052779A - 学習データ作成装置並びに分類モデル学習装置及びカテゴリ付与装置 - Google Patents

学習データ作成装置並びに分類モデル学習装置及びカテゴリ付与装置 Download PDF

Info

Publication number
JP2020052779A
JP2020052779A JP2018182028A JP2018182028A JP2020052779A JP 2020052779 A JP2020052779 A JP 2020052779A JP 2018182028 A JP2018182028 A JP 2018182028A JP 2018182028 A JP2018182028 A JP 2018182028A JP 2020052779 A JP2020052779 A JP 2020052779A
Authority
JP
Japan
Prior art keywords
noun
category
unit
learning data
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018182028A
Other languages
English (en)
Other versions
JP6934848B2 (ja
Inventor
公一 高井
Koichi Takai
公一 高井
服部 元
Hajime Hattori
元 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Research Inc
Original Assignee
KDDI Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Research Inc filed Critical KDDI Research Inc
Priority to JP2018182028A priority Critical patent/JP6934848B2/ja
Publication of JP2020052779A publication Critical patent/JP2020052779A/ja
Application granted granted Critical
Publication of JP6934848B2 publication Critical patent/JP6934848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】人手によるラベリングを必要とせずに名詞に対するカテゴリを付与した学習データを作成することが可能な学習データ作成装置を提供する。【解決手段】指定される名詞を含む用例から学習データを作成する学習データ作成装置であって、前記名詞に複数のカテゴリをそれぞれ仮付与する仮付与部2と、前記名詞への各カテゴリ仮付与のもとでそれぞれ、クラスベースの言語モデルによって前記用例を音声合成した合成音声を得る合成部3と、前記名詞への各カテゴリ仮付与のもとでの各合成音声に対して音声認識を行い、認識テキストを得る認識部4と、前記名詞への各カテゴリ仮付与のもとでの各認識テキストを、前記用例を正解として評価する評価部5と、前記名詞と、前記評価した結果が最良となる認識テキストに仮付与されていたカテゴリと、前記用例と、を紐づけた学習データを得る出力部6と、を備える。【選択図】図1

Description

本発明は、人手によるラベリングを必要とせずに名詞に対するカテゴリを付与した学習データを作成することが可能な学習データ作成装置並びに当該装置に基づく分類モデル学習装置及びカテゴリ付与装置に関する。
音声認識システム、音声翻訳システムの研究開発その他において、固有名詞辞書が不可欠である。一般に、日々、新出する固有名詞に対応するため、自動あるいは人手で抽出した固有名詞をシステム用の辞書に登録するなどの運用が行われている。
従来の固有名詞辞書のカテゴリ自動付与は、例えば非特許文献1,2のものがあるが、以下のような手順で行なわれる。
(手順1)固有名詞を抽出(人手あるいは、コーパスを用いた自動抽出)する。
(手順2)手順1で抽出された固有名詞に対して、カテゴリ体系に基づく人手によるカテゴリ付与し、学習データを作成する。
(手順3)手順2のデータを用いて機械学習による固有名詞自動分類器を構築する。
Jenny Rose Finkel, Trond Grenager, and Christopher Manning. 2005. Incorporating Non-local Information into Information Extraction Systems by Gibbs Sampling. Proceedings of the 43nd Annual Meeting of the Association for Computational Linguistics (ACL 2005), pp. 363-370. Xuezhe Ma, Eduard Hovy,"End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF"https://arxiv.org/abs/1603.01354 浅野久子, 松岡浩司, 高木伸一郎, & 小原永. (1999). 多段解析法による形態素解析を用いた音声合成用読み韻律情報設定法とその単語辞書構成. 自然言語処理, 6(2), 59-81. 森信介, & 長尾眞. (1998). 形態素クラスタリングによる形態素解析精度の向上. 自然言語処理, 5(2), 75-103. 森祥二郎, 駒谷和範, & 佐藤理史. (2013). 音声対話システム用クラス N-gram モデルによるドメイン固有語の認識率向上. 研究報告音声言語情報処理 (SLP), 2013(1), 1-8. 西村 雅史,伊東 伸泰,山崎 一孝 単語を認識単位とした日本語の大語彙連続音声認識,情報処理学会論文誌 Apr.1999 Vol40,No4 pp1395-1403 安田圭志, 高井公一,服部元, イラクレウスパニコス, 石川彰夫, 松本一則, 菅谷史昭"翻訳精度に基づく単語クラス自動推定手法",言語処理学会第24回年次大会,2018年3月
しかしながら、上記のような従来技術においては、学習データを作成するための手順2において、人手によるラベリング作業が必要になってしまうという課題があった。
すなわち、クラスベースの言語モデルを利用するシステムにおいては、固有名詞の表層表現以外にも、単語のカテゴリ(例えば、地名、人名、食品名など)を登録する必要がある。カテゴリ付与のコストを削減するため、これまでにも様々な方法でカテゴリ付与の自動化方法が提案されているが、従来技術の多くは、上記のように手順2において事前に規定されたカテゴリ体系に従い人手でカテゴリのラベル付けをした学習用データを用いて、手順3において機械学習により、カテゴリ自動推定器を作成する必要があった。
このような従来技術においては、学習データを作成するために人手によるラベリングのコストがかさみ、また、カテゴリ体系が変更されると、学習データを再度作りなおす必要も生じてしまうこととなる。以上では固有名詞の場合に関して説明してきたが、一般名詞を含む名詞の一般の場合に関しても同様の課題がある。
本発明は、上記従来技術の課題に鑑み、人手によるラベリングを必要とせずに学習データを作成することが可能な学習データ作成装置を提供することを第一の目的とする。また、当該学習データ作成装置に基づいた、人手によるラベリングを必要とせずに名詞の分類モデルを学習することが可能な分類モデル学習装置を提供することを第二の目的とする。さらに、当該分類モデル学習装置に基づいた、人手によるラベリングを必要とせずに名詞にカテゴリを付与することが可能なカテゴリ付与装置を提供することを第三の目的とする。
上記目的を達成するため、本発明は、指定される名詞を含む用例から学習データを作成する学習データ作成装置であって、前記名詞に複数のカテゴリをそれぞれ仮付与する仮付与部と、前記名詞への各カテゴリ仮付与のもとでそれぞれ、クラスベースの言語モデルによって前記用例を音声合成した合成音声を得る合成部と、前記名詞への各カテゴリ仮付与のもとでの各合成音声に対して音声認識を行い、認識テキストを得る認識部と、前記名詞への各カテゴリ仮付与のもとでの各認識テキストを、前記用例を正解として評価する評価部と、前記名詞と、前記評価した結果が最良となる認識テキストに仮付与されていたカテゴリと、前記用例と、を紐づけた学習データを得る出力部と、を備えることを第一の特徴とする。また、本発明は、指定される名詞を含む用例から学習データを作成する学習データ作成装置であって、前記名詞に複数のカテゴリをそれぞれ仮付与する仮付与部と、前記名詞への各カテゴリ仮付与のもとでそれぞれ、クラスベースの言語モデルによって前記用例を音声合成して予め得られている各合成音声に対して音声認識を行い、認識テキストを得る認識部と、前記名詞への各カテゴリ仮付与のもとでの各認識テキストを、前記用例を正解として評価する評価部と、前記名詞と、前記評価した結果が最良となる認識テキストに仮付与されていたカテゴリと、前記用例と、を紐づけた学習データを得る出力部と、を備えることを第二の特徴とする。
また、本発明は、前記学習データ作成装置と、学習部と、を備える分類モデル学習装置であって、前記学習部は、前記学習データ作成装置が得た学習データを用いた学習を行うことにより、名詞が含まれる用例を入力として、当該用例における当該名詞のカテゴリを出力する分類モデルを構築することを第三の特徴とする。さらに、本発明は、前記分類モデル学習装置と、付与部と、を備えるカテゴリ付与装置であって、前記付与部は、前記分類モデル学習装置が構築した分類モデルを用いることにより、入力された名詞が含まれる用例に対して、当該用例における当該名詞のカテゴリを出力することを第四の特徴とする。
本発明における前記第一又は第二の特徴を有する学習データ作成装置によれば、人手によるラベリングを必要とせずに学習データを作成することが可能であり、前記第一の目的が達成される。同様にして、本発明における前記第三の特徴を有する分類モデル学習装置及び前記第四の特徴を有するカテゴリ付与装置により、それぞれ前記第二の目的及び前記第三の目的が達成される。
一実施形態に係る学習データ作成装置の機能ブロック図である。 図1の学習データ作成装置に基づく、一実施形態に係るカテゴリ付与装置の機能ブロック図であり、その一部分の構成として分類モデル学習装置を含むものである。
図1は、一実施形態に係る学習データ作成装置10の機能ブロック図である。図示するように、学習データ作成装置10は、検索部1、仮付与部2、合成部3、認識部4、評価部5及び出力部6を備える。学習データ作成装置10は、その全体的な動作として、ユーザにより指定された名詞Wに対して、所与のテキストコーパスから当該名詞Wを含む用例EX(W,i)を検索したうえで、当該用例EX(W,i)における当該名詞WのカテゴリC(W,j_max)を自動付与することで、名詞W、カテゴリC(W,j_max)及び用例EX(W,i)を紐づけて学習データとして出力するものである。ここで、当該カテゴリC(W,j_max)を自動付与するために、所与の音声コーパスを参照して利用する。(なお、当該Wやj_maxやi等のインデクスに関しては、各部1〜6の説明を後述する際に詳述する。)
以下、各部1〜6の動作の詳細を説明することにより、学習データ作成装置10の動作の詳細を説明する。
<検索部1>
図示する通り、ユーザ等が学習データの取得対象として指定する名詞Wは検索部1及び仮付与部2へと入力される。検索部1では、所与のテキストコーパスを参照して、当該指定された名詞Wが含まれている用例EX(W,i)を検索して取得し、当該取得した用例EX(W,i)を合成部3、評価部5及び出力部6へと出力する。なお、当該参照するテキストコーパスは、少なくともプレーンテキストとしての情報を有するデータベースであればよいが、その他の各種の属性等の情報(例えば品詞の情報など)がさらに付与されたデータベースであってもよい。
例えば、インデクスWで区別されるある名詞W=1として具体的に、ユーザが固有名詞「ヒルトン札幌ホテル」(W=1)を入力した場合、インデクスiで区別されるテキストコーパス内にある用例として、i=1での用例EX(1,1)「ヒルトン札幌ホテルに泊まっています。」が検索されたものとする。以下でも、当該用例EX(1,1)を説明のための具体例として用いることとする。なお、W=1の「ヒルトン札幌ホテル」に対してi=2,3,…で指定されるその他の用例EX(1,i)(i=2,3, …)についても、また、W=2,3,…で指定されるその他のユーザ指定の名詞についても全く同様に、以下に説明する各処理を実施することが可能である。
すなわち、以下に説明する各処理は、インデクスWで区別される任意の名詞Wと、インデクスiで区別されるテキストコーパス内から検索された名詞Wを含む任意の用例EX(W,i)と、について同様の処理が行われるものである。そして、説明のための具体例として適宜、W=1「ヒルトン札幌ホテル」における1つの用例EX(1,1)「ヒルトン札幌ホテルに泊まっています。」を利用するものとする。
<仮付与部2>
仮付与部2では、ユーザ指定の名詞Wに関して、インデクスj=1,2,3,…でそれぞれ指定される所定の複数のカテゴリC(W,j)を仮のものとして付与して、当該仮付与されたカテゴリC(W,j)を合成部3へと出力する。ここで、当該仮に付与される複数のカテゴリC(W,j)の中から、後述する出力部6において学習データとして名詞Wを含む用例EX(W,i)における名詞Wのカテゴリが決定されることから、仮付与部2では「仮」付与するものである。すなわち、仮付与部2で仮付与する各カテゴリは、最終的に出力される学習データにおけるカテゴリの候補となるものである。
例えば、前述の模式例としての固有名詞「ヒルトン札幌ホテル」(W=1)に対して、インデクスj=1,2,3,…で区別される仮付与されるカテゴリC(W,j)としてC(1,1)「宿泊施設」、C(1,2)「食べ物」、C(1,3)「ランドマーク」、…等を仮付与部2において与えることができる。
<合成部3>
合成部3では、検索部1より得たテキストコーパス内の用例EX(W,i)を、クラスベースの言語モデルを用いることにより、仮付与部2より得た仮のカテゴリC(W,j)のそれぞれのもとにおいて音声合成することで、各カテゴリC(W,j)における合成音声SP(W,i,j)を得て、当該合成音声SP(W,i,j)を音声データとして評価部4へと出力する。ここで、合成部3におけるクラスベースの音声合成には任意の既存手法を用いてよく、例えば、前掲の非特許文献3や4などの手法を用いることができる。例えば非特許文献3では、テキスト解析処理によって読み韻律情報を得たうえで、読み韻律情報に対して音声合成処理を行うことで合成音声を得ている。ここで、テキスト解析処理は、形態素解析、読み付与、アクセント付与、音調結合型付与によって構成され、音声合成処理は、韻律パラメータ生成、音素辺選択、音素辺接続によって構成される。
合成部3においては、所与の音声コーパスを参照して音声合成を行うことができる。ここで、音声コーパスは、読み上げ音声とそのトランスクリプト(読みを振ったもの)とを対応付けた所与のデータベースを用いればよい。具体的に例えば以下のURL等で開示されているATR(国際電気通信基礎技術研究所)の音素バランス503文を含めてもよい。(当該503文のみではデータが不足する場合は同様の形式のその他のデータベースも追加で利用してよい。)
[URL]http://research.nii.ac.jp/src/ATR503.html
<認識部4>
認識部4では、合成部3から音声データとして得た各カテゴリC(W,j)における合成音声SP(W,i,j)に対して音声認識処理を行い、認識結果としての各カテゴリC(W,j)における認識テキストT(W,i,j)を評価部5へと出力する。認識部4における音声認識処理には任意の既存手法を用いてよく、クラスベースではない音声認識の手法を用いてもよいし、前掲の非特許文献5のようなクラスベースの音声認識の手法を用いるようにしてもよい。
例えば、前述の名詞インデクスW=1及び検索結果インデクスi=1で指定されるテキスト用例EX(1,1)「ヒルトン札幌ホテルに泊まっています。」を、カテゴリインデクスj=1,2,3,…で指定されるC(1,1)「宿泊施設」、C(1,2)「食べ物」、C(1,3)「ランドマーク」、…等の各カテゴリにおいて音声合成した合成音声SP(W=1,i=1,j=1,2,3,…)に対する認識テキストT(W=1,i=1,j=1,2,3,…)として、認識部4は以下を得ることができる。
T(1,1,1):「ヒルトン札幌ホテルに泊まっています。」
T(1,1,2):「ヒルトンサッポロホテルに泊まっています。」
T(1,1,3):「ヒルトン札幌ホテルに止まっています。」
<評価部5>
評価部5では、認識部4から得た認識結果としての各カテゴリC(W,j)における認識テキストT(W,i,j)を、検索部1から得たこれに対応する元のテキスト用例EX(W,i)を正解の認識結果として利用することによって評価し、その評価値として得られた各カテゴリC(W,j)におけるスコアSC(W,j)を出力部6へと出力する。
評価部5における評価にはテキスト同士の一致度合いなどを評価する任意の既存手法を用いてよく、例えば、前掲の非特許文献6に開示される単語誤り率(WER)による自動評価値SWERとしてスコアSC(W,j)の値を求めてもよい。自動評価値SWERは以下で与えられる。
SC(W,j)=SWER
SWER=(Sh+Dh+Ih)/r
ここで、rとhはそれぞれ正解(すなわち元の用例EX(W,i))と合成音声の認識テキストT(W,i,j)とに含まれる単語数を表し、Sh,Dh,Ihは正解EX(W,i)と認識テキストT(W,i,j)とを比較した際の誤った単語数をそれぞれ、置換した単語数、削除した単語数、挿入した単語数として表すものである。
<出力部6>
出力部6は、評価部5より得たカテゴリC(W,j)毎のスコアSC(W,i,j)を最大にするもののカテゴリのインデクスj=j_maxを求めることにより、ユーザ指定された名詞Wと、対応する当該スコア最大値を与えるカテゴリC(W,j_max)と、対応する用例EX (W,i)と、を紐づけて、学習データ作成装置10からの最終的な結果としての学習データW,C(W,j_max),EX(W,i)を出力する。なお、最大スコアを与えるカテゴリのインデクスj=j_maxは式で書けば以下の通りである。
Figure 2020052779
例えば、前述の例におけるテキスト認識した結果T1(W=1,i=1,j=1,2,3,…)に関して、評価部5ではスコアがSC(1,1,1)=0.9, SC(1,1,2)=0.7, SC(1,1,3)=0.8,…等として求まることにより、出力部6では最大スコアを与えるもの(すなわち、合成部3での合成音声が最も高品質であったと考えられるもの)がj=1の場合のSC(1,1,1)=0.9である旨を特定することができる。そして、出力部6では学習データとして、「ヒルトン札幌ホテル」(インデクスW=1の固有名詞)と、「宿泊施設」(当該W=1における最大値スコアを与えたインデクスj=1のカテゴリC(1,1))と、「ヒルトン札幌ホテルに泊まっています。」(当該対応する用例EX(1,1))と、を紐づけた学習データを得ることができる。
なお、「ヒルトン札幌ホテル」(インデクスW=1の固有名詞)の場合であっても、i=2以降で指定され検索部1で検索された別の用例EX1(W=1,i≧2)に関しては、その用例の文脈(内容)によって、j=1の「宿泊施設」以外のカテゴリが対応カテゴリであるものとして、例えば道案内の文脈の用例において、j=3の「ランドマーク」のカテゴリに該当するものとして、学習データが得られることもありうる。
図2は、以上の図1の学習データ作成装置10に基づく、一実施形態に係るカテゴリ付与装置の機能ブロック図である。図示する通り、カテゴリ付与装置30は図1で説明した学習データ作成装置10と、学習部7と、用例取得部8と、付与部9と、を備える。カテゴリ付与装置30はその全体的な動作として、学習データ作成装置10で作成した学習データを用いることにより、ユーザ等によって指定される名詞Xに対し、データベース(テキストコーパスとしてのデータベース)を参照して用例EX(X,k)を取得したうえで、当該名詞Xの用例EX(X,k)におけるカテゴリC(X,k)を自動付与して出力することができる。ここで、図1の場合と同様に、一般の名詞X(固有名詞、一般名詞等)を対象としてカテゴリ付与装置30は動作が可能である。
なお、図2に示すように、カテゴリ付与装置30のうち学習データ作成装置10及び学習部7の部分は、分類モデル学習装置20を構成しているものとみなすことができる。
以下、カテゴリ付与装置30における上記の全体的な動作を実現する各部7〜9の動作の詳細を説明する。
<学習部7>
学習部7は、図示する通り、学習データ作成装置10の作成した学習データW,C(W,j_max),EX(W,i)を読み込んで学習することにより、分類モデルを構築して付与部9へと出力する。なお、ここで、学習部7で読み込む学習データはインデクスWで区別される複数の名詞Wにつきそれぞれ、検索部1でヒットしたインデクスiでそれぞれ区別される複数の用例EX(W,i)と、当該用例のインデクスi毎に(前述の数1より明らかなようにj_max=jmax(i)の形で)1つが対応しているカテゴリC(W,j_max(i))と、が紐づけられることで、一般に大量のデータとして与えられているものである。
学習部7における当該学習は、前掲の非特許文献1,2,7等でなされているのと同様に、CRF(条件付き確率場)や、深層学習を用いればよく、当該学習結果としての分類モデルが付与部9へと出力される。学習部7で得られる当該分類モデルを参照することで後述する付与部9はカテゴリ自動付与が可能となるものであり、当該分類モデルはすなわち、名詞が含まれる用例を入力として、当該名詞の当該用例におけるカテゴリを出力するためのモデルである。
<用例取得部8>
用例取得部8は、ユーザ指定される名詞X(ここでは、図1の学習データ作成装置10におけるユーザ指定の名詞Wと区別してインデクスXとしている。)に対し、学習データ作成装置10が参照したテキストコーパスと同種の外部のデータベース等を検索し、当該名詞を含みインデクスkで互いに区別される用例EX(X,k)を取得し、付与部9へと当該用例EX(X,k)を出力する。
なお、用例取得部8では上記のように外部データベース等を検索するのではなく、ユーザ等が独自に指定した名詞X及び当該名詞Xを含む用例EX(X,k)を取得するようにしてもよい。すなわち、名詞X及び当該名詞Xを含む用例EX(X,k)の取得元は任意のものであってよい。
<付与部9>
付与部9では、非特許文献1,2,7等でなされているのと同様に、学習部7で構築された分類モデルを用例取得部8から得た用例EX(X,k)(及びここで指定されている固有名詞X)に適用することで、当該用例EX(X,k)における名詞XのカテゴリC(X,k)を自動付与し、カテゴリ付与装置30からの最終的な結果として出力する。
例えば、インデクスX=1で指定される固有名詞「シェラトン沖縄ホテル」に関して、インデクスk=1で指定される用例EX(1,1)「シェラトン沖縄ホテルに泊まりたいです。」におけるカテゴリC(1,1)「宿泊施設」を、付与部9が自動出力することが可能である。なお、別のインデクスk=2で指定される別の用例EX3(1,2)に関しては、カテゴリC(1,2)が出力されることとなるが、用例の文脈によりカテゴリC(1,1)「宿泊施設」と一致するとは限らず、例えばC(1,2)として「ランドマーク」が出力されるような場合もありうる。
以下、本発明における補足事項を説明する。
(1)学習データ作成装置10においては、検索部1がテキストコーパスからユーザ指定される名詞Wを含む用例EX(W,i)を検索しているが、この検索部1が省略される実施形態も可能である。省略する場合、ユーザ指定される名詞Wを含む用例EX(W,i)自体もユーザ等が手作業等で用意しておき、当該用意された用例EX(W,i)が合成部3、評価部5及び出力部6へと入力されることで、以上説明したのと同様の学習データの自動作成が可能である。なお、大量に学習データを得ようとする場合には、ユーザ指定される一連の名詞Wを予め用意しておいたうえで、検索部1を利用する実施形態を取ることで、ユーザがその都度、用例EX(W,i)を用意する手間を省くことが可能である。
(2)上記のように検索部1が省略されることに加えてさらに、合成部3が省略される実施形態も可能である。この場合、(省略しない実施形態の場合に)合成部3で得ていた仮付与部2で付与されるカテゴリC(W,j)毎の合成音声SP(W,i,j)を、学習データ作成装置10の外部で(例えばカテゴリC(W,j)ごとの用例EX(W,i)の合成音声SP(W,i,j)が予め収録された音声コーパス等の形で)予め用意しておいて、当該用意しておいた合成音声SP(W,i,j)を認識部4で取得して読み込むようにすればよい。
(3)合成部3を利用する実施形態においては、合成部3が音声合成のために参照して利用する音声コーパスが次の条件を満たすようにする実施形態も可能である。すなわち、音声合成対象となる用例EX(W,i)に含まれる単語の全部または一部が、すなわち、用例EX(W,i)に含まれる単語のうち少なくとも1つ(特に、名詞W)が、音声コーパスにおけるトランスクリプト内に存在することで、音声コーパスに含まれている、という条件である。当該条件を満たす場合、正解カテゴリにおける合成音声がより流暢となってカテゴリ推定の精度が向上する(すなわち、評価部5において正解カテゴリの場合のスコアがより顕著に好成績となる)ことにより、より正確な学習データが得られることが期待される。
(4)図1及び図2に示した学習データ作成装置10並びに分類モデル学習装置20及びカテゴリ付与装置30はそれぞれ、一般的な構成のコンピュータとして実現可能である。すなわち、CPU(中央演算装置)、当該CPUにワークエリアを提供する主記憶装置、ハードディスクやSSDその他で構成可能な補助記憶装置、キーボード、マウス、タッチパネルその他といったユーザからの入力を受け取る入力インタフェース、ネットワークに接続して通信を行うための通信インタフェース、表示を行うディスプレイ、カメラ及びこれらを接続するバスを備えるような、一般的なコンピュータによって各装置10,20,30を構成することができる。さらに、各装置10,20,30の各部の処理はそれぞれ、当該処理を実行させるプログラムを読み込んで実行するCPUによって実現することができるが、任意の一部の処理を別途の専用回路等において実現するようにしてもよい。
10…学習データ作成装置、20…分類モデル学習装置、30…カテゴリ付与装置、1…検索部、2…仮付与部、3…合成部、4…認識部、5…評価部、6…出力部、7…学習部、8…用例取得部、9…付与部

Claims (7)

  1. 指定される名詞を含む用例から学習データを作成する学習データ作成装置であって、
    前記名詞に複数のカテゴリをそれぞれ仮付与する仮付与部と、
    前記名詞への各カテゴリ仮付与のもとでそれぞれ、クラスベースの言語モデルによって前記用例を音声合成した合成音声を得る合成部と、
    前記名詞への各カテゴリ仮付与のもとでの各合成音声に対して音声認識を行い、認識テキストを得る認識部と、
    前記名詞への各カテゴリ仮付与のもとでの各認識テキストを、前記用例を正解として評価する評価部と、
    前記名詞と、前記評価した結果が最良となる認識テキストに仮付与されていたカテゴリと、前記用例と、を紐づけた学習データを得る出力部と、を備えることを特徴とする学習データ作成装置。
  2. 前記合成部では、音声データとトランスクリプトとを対応付けた音声コーパスを参照して合成音声を得ており、
    前記用例に含まれる単語のうち少なくとも1つが前記音声コーパスのトランスクリプトに含まれていることを特徴とする請求項1に記載の学習データ作成装置。
  3. 指定される名詞を含む用例から学習データを作成する学習データ作成装置であって、
    前記名詞に複数のカテゴリをそれぞれ仮付与する仮付与部と、
    前記名詞への各カテゴリ仮付与のもとでそれぞれ、クラスベースの言語モデルによって前記用例を音声合成して予め得られている各合成音声に対して音声認識を行い、認識テキストを得る認識部と、
    前記名詞への各カテゴリ仮付与のもとでの各認識テキストを、前記用例を正解として評価する評価部と、
    前記名詞と、前記評価した結果が最良となる認識テキストに仮付与されていたカテゴリと、前記用例と、を紐づけた学習データを得る出力部と、を備えることを特徴とする学習データ作成装置。
  4. 前記評価部では、前記各認識テキストと、前記用例との一致度に基づいて前記評価することを特徴とする請求項1ないし3のいずれかに記載の学習データ作成装置。
  5. 前記評価部では、単語誤り率に基づいて前記評価することを特徴とする請求項1ないし4のいずれかに記載の学習データ作成装置。
  6. 請求項1ないし5のいずれかに記載の学習データ作成装置と、学習部と、を備える分類モデル学習装置であって、
    前記学習部は、前記学習データ作成装置が得た学習データを用いた学習を行うことにより、名詞が含まれる用例を入力として、当該用例における当該名詞のカテゴリを出力する分類モデルを構築することを特徴とする分類モデル学習装置。
  7. 請求項6に記載の分類モデル学習装置と、付与部と、を備えるカテゴリ付与装置であって、
    前記付与部は、前記分類モデル学習装置が構築した分類モデルを用いることにより、入力された名詞が含まれる用例に対して、当該用例における当該名詞のカテゴリを出力することを特徴とするカテゴリ付与装置。
JP2018182028A 2018-09-27 2018-09-27 学習データ作成装置並びに分類モデル学習装置及びカテゴリ付与装置 Active JP6934848B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018182028A JP6934848B2 (ja) 2018-09-27 2018-09-27 学習データ作成装置並びに分類モデル学習装置及びカテゴリ付与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018182028A JP6934848B2 (ja) 2018-09-27 2018-09-27 学習データ作成装置並びに分類モデル学習装置及びカテゴリ付与装置

Publications (2)

Publication Number Publication Date
JP2020052779A true JP2020052779A (ja) 2020-04-02
JP6934848B2 JP6934848B2 (ja) 2021-09-15

Family

ID=69997282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182028A Active JP6934848B2 (ja) 2018-09-27 2018-09-27 学習データ作成装置並びに分類モデル学習装置及びカテゴリ付与装置

Country Status (1)

Country Link
JP (1) JP6934848B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210128255A (ko) * 2020-04-16 2021-10-26 주식회사 카카오엔터프라이즈 음소의 특성에 관한 통계적 분석에 기초하여 자동적으로 음성 합성 데이터를 평가하는 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003186494A (ja) * 2001-12-17 2003-07-04 Sony Corp 音声認識装置および方法、記録媒体、並びにプログラム
JP2006259620A (ja) * 2005-03-18 2006-09-28 Univ Waseda 音声合成装置
US20070168193A1 (en) * 2006-01-17 2007-07-19 International Business Machines Corporation Autonomous system and method for creating readable scripts for concatenative text-to-speech synthesis (TTS) corpora
JP2008191477A (ja) * 2007-02-06 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> ハイブリッド型音声合成方法、及びその装置とそのプログラムと、その記憶媒体
JP2010128774A (ja) * 2008-11-27 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> 固有表現抽出装置、その方法およびプログラム
JP2016186768A (ja) * 2015-03-27 2016-10-27 日本放送協会 候補キーワード評価装置及び候補キーワード評価プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003186494A (ja) * 2001-12-17 2003-07-04 Sony Corp 音声認識装置および方法、記録媒体、並びにプログラム
JP2006259620A (ja) * 2005-03-18 2006-09-28 Univ Waseda 音声合成装置
US20070168193A1 (en) * 2006-01-17 2007-07-19 International Business Machines Corporation Autonomous system and method for creating readable scripts for concatenative text-to-speech synthesis (TTS) corpora
JP2008191477A (ja) * 2007-02-06 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> ハイブリッド型音声合成方法、及びその装置とそのプログラムと、その記憶媒体
JP2010128774A (ja) * 2008-11-27 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> 固有表現抽出装置、その方法およびプログラム
JP2016186768A (ja) * 2015-03-27 2016-10-27 日本放送協会 候補キーワード評価装置及び候補キーワード評価プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210128255A (ko) * 2020-04-16 2021-10-26 주식회사 카카오엔터프라이즈 음소의 특성에 관한 통계적 분석에 기초하여 자동적으로 음성 합성 데이터를 평가하는 방법 및 장치
KR102386635B1 (ko) 2020-04-16 2022-04-14 주식회사 카카오엔터프라이즈 음소의 특성에 관한 통계적 분석에 기초하여 자동적으로 음성 합성 데이터를 평가하는 방법 및 장치

Also Published As

Publication number Publication date
JP6934848B2 (ja) 2021-09-15

Similar Documents

Publication Publication Date Title
CN109408526B (zh) Sql语句生成方法、装置、计算机设备及存储介质
KR101309042B1 (ko) 다중 도메인 음성 대화 장치 및 이를 이용한 다중 도메인 음성 대화 방법
US8401847B2 (en) Speech recognition system and program therefor
US20110184723A1 (en) Phonetic suggestion engine
JP2011018330A (ja) 統計的な方法を用いて漢字を自国語の発音列に変換するシステムおよび方法
CN111611349A (zh) 语音查询方法、装置、计算机设备及存储介质
CN109508441B (zh) 通过自然语言实现数据统计分析的方法、装置及电子设备
KR20160029587A (ko) 단위 또는 약어의 풀네임 음성출력 방법 및 장치
JP2012083543A (ja) 言語モデル生成装置、その方法及びそのプログラム
CN111506673A (zh) 一种病案的分类码确定方法和装置
US20220012437A1 (en) Translating method using visually represented elements, and device therefor
Sangeetha et al. Speech translation system for english to dravidian languages
van Esch et al. Future directions in technological support for language documentation
Schweitzer et al. German radio interviews: The GRAIN release of the SFB732 Silver Standard Collection
JP2019032704A (ja) 表データ構造化システムおよび表データ構造化方法
KR101709693B1 (ko) 크라우드 소싱을 이용한 웹툰 언어 자동 번역 방법
CN117010907A (zh) 一种基于语音和图像识别的多模态客户服务方法及系统
Hkiri et al. Constructing a Lexicon of Arabic-English Named Entity using SMT and Semantic Linked Data.
JP2006338261A (ja) 翻訳装置、翻訳方法及び翻訳プログラム
JP6934848B2 (ja) 学習データ作成装置並びに分類モデル学習装置及びカテゴリ付与装置
RU2546064C1 (ru) Распределенная система и способ языкового перевода
KR102204395B1 (ko) 개체명 인식을 이용한 음성인식 띄어쓰기 보정 방법 및 시스템
CN111125363A (zh) 用于医疗文本数据标注的方法、装置、设备及存储介质
JP2023093349A (ja) 情報処理装置及び情報処理方法
JP2019204415A (ja) 言い回し文生成方法、言い回し文装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210824

R150 Certificate of patent or registration of utility model

Ref document number: 6934848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150