JP2019185400A - 文生成装置、文生成方法及び文生成プログラム - Google Patents

文生成装置、文生成方法及び文生成プログラム Download PDF

Info

Publication number
JP2019185400A
JP2019185400A JP2018075610A JP2018075610A JP2019185400A JP 2019185400 A JP2019185400 A JP 2019185400A JP 2018075610 A JP2018075610 A JP 2018075610A JP 2018075610 A JP2018075610 A JP 2018075610A JP 2019185400 A JP2019185400 A JP 2019185400A
Authority
JP
Japan
Prior art keywords
sentence
word
keyword
unknown word
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018075610A
Other languages
English (en)
Other versions
JP7084761B2 (ja
Inventor
金子 豊
Yutaka Kaneko
金子  豊
祐太 星
Yuta Hoshi
祐太 星
村▲崎▼ 康博
Yasuhiro Murazaki
康博 村▲崎▼
上原 道宏
Michihiro Uehara
道宏 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2018075610A priority Critical patent/JP7084761B2/ja
Publication of JP2019185400A publication Critical patent/JP2019185400A/ja
Application granted granted Critical
Publication of JP7084761B2 publication Critical patent/JP7084761B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】入力文に含まれるキーワードから文を生成する際に、キーワードが学習済みの辞書にない未知語の場合であっても、このキーワードを含む文を生成できる文生成装置、文生成方法及び文生成プログラムを提供すること。【解決手段】文生成装置1は、入力文からキーワードを抽出するキーワード抽出部12と、学習モデルに基づき、キーワードを用いた新たな出力文を生成する文生成部15と、キーワードが学習モデルの語彙に含まれる既知語であるか、又は学習モデルの語彙に含まれない未知語であるかを判定する未知語判定部13と、キーワードが未知語である場合、学習モデルに基づいて、既知語の中から予測語を選択し、予測語をキーワードの代わりに文生成部15へ提供する未知語予測部14と、出力文の中に予測語が含まれる場合、予測語を元の未知語に置換する未知語置換部16と、を備える。【選択図】図1

Description

本発明は、ロボットの発話文を生成するための装置、方法及びプログラムに関する。
従来、人と対話が可能なコミュニケーションロボットが開発されている。しかしながら、このようなコミュニケーションロボットは、使い始めは目新しいものの、しばらくすると利用者が飽きてしまい使用しなくなってしまう課題がある。
そこで、利用者を飽きさせない工夫として、日々情報の変わるテレビの字幕情報とテンプレート文とを用いてロボットに発話させる手法が提案されている(例えば、非特許文献1参照)。
また、再帰型ニューラルネットワーク(RNN: Recurrent Neural Network)、n−gram又は隠れマルコフモデル等の言語モデルに基づいて、元の単語に対して尤もらしい文を生成する手法が提案されている(例えば、非特許文献2参照)。
さらに、複数の単語を入力とし、これらの単語を含む文を生成する手法が提案されている(例えば、特許文献1及び非特許文献3参照)。
特開2003−196280号公報 特開2002−334076号公報
金子豊、星祐太、上原道宏、"テレビ視聴ロボットにおける字幕文内キーワードに基づく発話生成手法"、映像情報メディア学会年次大会、32B−4(2017) 坂本俊之、"Chainerで作るコンテンツ自動生成AIプログラミング入門"、シーアンドアール研究所(2017):CHAPTER 06 文章の自動生成 尾形朋哉、叶内晨、高谷智哉、小町守、"キーワードに基づくニューラル文生成のためのリランキング"、言語処理学会第23回年次大会、pp.679−682(2017)
しかしながら、従来の文生成手法において、入力される単語及び出力される文に使用される単語は、事前の学習時に使用した文に含まれる単語(語彙)に限定されていた。このため、テレビの字幕等のように日々新しい単語が含まれる文からキーワードを抽出したとしても、このキーワードを元にした文が生成できないという課題があった。
また、特許文献1では、形態素解析手法として特許文献2のMEモデルに基づく手法を用いることで、データベースに入力されたテキスト文に未知語、すなわち辞書に含まれない単語があっても形態素解析できる手法が提案されている。しかしながら、入力された単語がデータベースに保管されている文に含まれていない未知語である場合には、この未知語を含んだ文を生成できなかった。
本発明は、入力文に含まれるキーワードから文を生成する際に、キーワードが学習済みの辞書にない未知語の場合であっても、このキーワードを含む文を生成できる文生成装置、文生成方法及び文生成プログラムを提供することを目的とする。
本発明に係る文生成装置は、入力文から、所定の辞書に含まれているキーワードを抽出するキーワード抽出部と、学習モデルに基づき、前記キーワードを用いた新たな出力文を生成する文生成部と、前記キーワードが前記学習モデルの語彙に含まれる既知語であるか、又は前記学習モデルの語彙に含まれない未知語であるかを判定する未知語判定部と、前記キーワードが未知語である場合、前記学習モデルに基づいて、前記既知語の中から前記入力文において当該キーワードを置換可能な予測語を選択し、当該予測語を前記キーワードの代わりに前記文生成部へ提供する未知語予測部と、前記出力文の中に前記予測語が含まれる場合、当該予測語を元の未知語に置換する未知語置換部と、を備える。
前記未知語予測部は、前記入力文に含まれる語との共起性に基づいて、前記予測語を選択してもよい。
前記未知語予測部は、前記入力文において前記キーワードを置換した場合の文全体の尤度に基づいて、前記予測語を選択してもよい。
前記未知語予測部は、文頭から文末へ順に語を入力した場合の学習モデル、及び文末から文頭へ順に語を入力した場合の学習モデルのそれぞれを用いて、前記尤度を算出してもよい。
本発明に係る文生成方法は、入力文から、所定の辞書に含まれているキーワードを抽出するキーワード抽出ステップと、学習モデルに基づき、前記キーワードを用いた新たな出力文を生成する文生成ステップと、前記キーワードが前記学習モデルの語彙に含まれる既知語であるか、又は前記学習モデルの語彙に含まれない未知語であるかを判定する未知語判定ステップと、前記キーワードが未知語である場合、前記学習モデルに基づいて、前記既知語の中から前記入力文において当該キーワードを置換可能な予測語を選択し、当該予測語を前記キーワードの代わりに前記文生成ステップへ提供する未知語予測ステップと、前記出力文の中に前記予測語が含まれる場合、当該予測語を元の未知語に置換する未知語置換ステップと、をコンピュータが実行する。
本発明に係る文生成プログラムは、入力文から、所定の辞書に含まれているキーワードを抽出するキーワード抽出ステップと、学習モデルに基づき、前記キーワードを用いた新たな出力文を生成する文生成ステップと、前記キーワードが前記学習モデルの語彙に含まれる既知語であるか、又は前記学習モデルの語彙に含まれない未知語であるかを判定する未知語判定ステップと、前記キーワードが未知語である場合、前記学習モデルに基づいて、前記既知語の中から前記入力文において当該キーワードを置換可能な予測語を選択し、当該予測語を前記キーワードの代わりに前記文生成ステップへ提供する未知語予測ステップと、前記出力文の中に前記予測語が含まれる場合、当該予測語を元の未知語に置換する未知語置換ステップと、をコンピュータに実行させるためのものである。
本発明によれば、入力文に含まれるキーワードから文を生成する際に、キーワードが学習済みの辞書にない未知語の場合であっても、このキーワードを含む文を生成できる。
第1実施形態に係る文生成装置の機能構成を示すブロック図である。 第1実施形態に係る文生成装置による処理の流れを例示する図である。 第1実施形態に係る文生成学習データの学習アルゴリズムを例示する概略図である。 第1実施形態に係るRNNによる文の尤度の計算方法を例示する図である。 第1実施形態に係るRNNにより、未知語に類似した置き換え可能な語を予測する方法を例示する図である。 第1実施形態に係るRNNにより新たな文を生成する方法を例示する図である。 第2実施形態に係る2方向のRNNを用いた未知語予測処理を示す概要図である。 第3実施形態に係る未知語予測処理の動作を示す概略図である。
[第1実施形態]
以下、本発明の第1実施形態について説明する。
本実施形態に係る文生成装置1は、例えば、人と一緒にテレビを視聴するコミュニケーションロボットに組み込まれ、入力文Iに対し、新たに文を生成し、出力文Oとして出力する。
図1は、本実施形態に係る文生成装置1の機能構成を示すブロック図である。
文生成装置1は、制御部10及び記憶部20の他、各種インタフェースを備えた情報処理装置であり、記憶部20に格納されたソフトウェア(文生成プログラム)を制御部10が実行することにより、本実施形態の各種機能が実現される。
文生成装置1へは、テレビの放送番組に付加されている字幕文(クローズドキャプション)が入力文Iとして入力されることとして説明を行う。例えば、「今日は名物のラーメンを食べに行きます。」といった字幕文が入力されると、文生成装置1は、「このラーメンを食べてみたい。」のような新たな出力文Oを生成することで、テレビ番組の内容に合った文をコミュニケーションロボットに発話させることができる。
なお、放送番組からの字幕文の抽出方法としては、例えば、ロボットがテレビ受像機と連動して、字幕情報を取得したり、放送連動サービスとして、インターネット等の通信設備を用いて配信された字幕情報を受信したりする方法が考えられる。
また、入力文Iは、字幕文に限ったものではなく、ロボットに装備されたカメラ又はマイクロフォンを用いて、テレビの画像から画像処理によりオープンキャプションが取得されてもよいし、音声から音声認識により抽出されてもよい。
制御部10は、分かち書き処理部11と、キーワード抽出部12と、未知語判定部13と、未知語予測部14と、文生成部15と、未知語置換部16とを備える。
また、記憶部20は、分かち書き辞書21と、キーワード辞書22と、文生成学習データ23とを備える。文生成学習データ23は、文生成辞書231と、文生成モデル232とを含む。
分かち書き処理部11は、分かち書き辞書21を用いて、入力文Iを複数の語に分割する。なお、ここでいう「語」は、文を構成する言葉の単位であり、単語又は文節であってよい。以下では、入力文Iは、単語に分割されることとする。
分かち書き処理部11は、例えば、形態素解析手法を利用することで、文を単語に分割できる。
形態素解析手法としては、例えば、MeCab(http://taku910.github.io/mecab/)が利用できる。また、分かち書き処理部11が参照する分かち書き辞書21としては、Neologd(https://github.com/neologd/mecab-ipadic-neologd)等が利用できる。例えば、Neologdでは、インターネット等で使われている固有名詞等を収集して辞書が更新されている。分かち書き処理部11は、分かち書き辞書21として、このような辞書を用いることで、日々増え続ける新たな単語を判別して、分かち書きすることができる。
キーワード抽出部12は、分かち書き処理部11により分かち書きされた入力文Iからキーワードを抽出する。
このとき、キーワード抽出部12は、キーワード辞書22に含まれる語が分かち書きされた入力文Iの中に含まれるか否かを検索し、このキーワード辞書22に含まれる語を入力文Iからキーワードとして抽出する。
なお、キーワード辞書22は、分かち書き辞書21の語の中から、キーワードとして使用するものを事前に選択することで作られた辞書である。
未知語判定部13は、キーワード抽出部12により抽出されたキーワードが未知語か否かの判定を行う。ここでいう未知語とは、文生成学習データ23として学習された文生成モデル232の語彙に含まれない語、すなわち、文生成辞書231に含まれない語のことである。
未知語予測部14は、未知語判定部13により未知語と判定された語の代わりに、文生成辞書231に含まれる語彙の中から置換が可能な類似語を選択し、予測語として出力する。
このとき、未知語予測部14は、入力文Iに含まれる他の語との並び順も考慮した共起性に基づいて、予測語を選択する。具体的には、文を生成するための各語の出現確率を学習した文生成学習データ23を用いて、入力文Iにおいてキーワードを置換した場合の文全体の尤度が最も大きい予測語を選択する。なお、未知語予測処理の詳細は、後述する。
文生成部15は、キーワード、又はこのキーワードが未知語の場合には未知語予測部14により出力された予測語を用いて、文生成モデル232に基づき新たな出力文Oを生成する。
未知語置換部16は、文生成部15により生成された出力文Oの中に予測語が含まれる場合、この予測語を置換前の元の未知語に置き換えて出力する。
図2は、本実施形態に係る文生成装置1による処理の流れを例示する図である。
この例は、入力文Iとして「おいしそうなひっつみですね」が入力され、出力文Oとして「ひっつみを食べたいな」を出力するまでの処理手順を示している。
ステップS1の分かち書き処理において、分かち書き処理部11は、分かち書き辞書21を用いた形態素解析により、入力文Iを、「おいし」、「そう」、「な」、「ひっつみ」、「です」、「ね」の6単語に分割する。
ステップS2のキーワード抽出処理において、キーワード抽出部12は、キーワード辞書22を用いて、キーワード「ひっつみ」を抽出する。
ステップS3の未知語判定処理において、未知語判定部13は、キーワード抽出処理(ステップS2)で抽出されたキーワード「ひっつみ」が文生成辞書231に含まれていないため、このキーワード「ひっつみ」を未知語と判定する。
ステップS4の未知語予測処理において、未知語予測部14は、未知語と判定されたキーワード「ひっつみ」を置き換え可能な、類似した予測語として「うどん」を出力している。
ステップS5の文生成処理において、文生成部15は、未知語「ひっつみ」を置換した予測語「うどん」を用いて、新たな文「うどんを食べたいな」を出力している。
ステップS6の未知語置換処理において、未知語置換部16は、文生成処理(ステップS5)で出力された文「うどんを食べたいな」に含まれる予測語「うどん」を、元の未知語「ひっつみ」に置き換えて、「ひっつみを食べたいな」とし、文生成装置1の出力文Oとして出力する。
なお、ステップS3の未知語判定処理において、キーワードが未知語と判定された場合にはステップS4の未知語予測処理が実行されるが、既知語の場合には、未知語予測処理は実行されず、ステップS5の文生成処理により既知語に基づく出力文Oが生成される。
図3は、本実施形態に係る文生成学習データ23の学習アルゴリズムを例示する概略図である。
ここでは、文生成学習データ23の学習アルゴリズムとしてRNNを利用するものとする。
RNNは、M次元の入力層、N次元の隠れ層、M次元の出力層を有している。ここで、入力層及び出力層の次元数Mは、文生成辞書231の語彙数である。隠れ層の次元数Nは、学習時に予め任意に設定しておく値であり、例えば200次元等が使われる。
M次元の入力層の各要素は、文生成辞書231の各語と1対1に対応しており、本実施形態では、M個の要素のうち1つだけが入力される。ここでは、単語「おいし」に対応する入力層の要素だけが入力された例を示している。
M次元の出力層の各要素は、入力層と同様、文生成辞書231の各単語と1対1に対応している。M次元の出力層の各要素には、入力層に入力された単語に対して、次の単語がどの程度出現するかを示す確率pが全ての単語に対して出力される。
入力層に入力された単語に対して、出力層で出力される各単語の確率pは、入力層と隠れ層との間の重み行列W、隠れ層と出力層の間の重み行列V、及び1ステップ前の隠れ層と今の隠れ層との間の重み行列Hから計算される。これらの行列W、V、Hは、様々な文における単語の列をRNNに入力し、出力の誤差を小さくすることで求めることができる。これらの行列W、V、Hは、予め学習済みであり、文生成モデル232に保管されているものとする。
図4は、本実施形態に係るRNNによる文の尤度の計算方法を例示する図である。
この例では、分かち書き処理された「おいし/そう/な/うどん/です/ね」という文の尤度の計算方法を示している。ここで、分かち書きされた文は、文生成辞書231にある単語(既知語)で構成されているとする。
RNNは、入力単語に対して、次に出現する単語の発生確率を出力するように学習されているため、「おいし」、「そう」、「な」、「うどん」、「です」、「ね」と1単語ずつ順に入力すると、それぞれの単語の次の単語の発生確率、すなわち、「おいし」の次に「そう」が出現する確率p(そう)、「そう」の次に「な」が出現する確率p(な)、というように、各単語の出現確率p(そう)、p(な)、p(うどん)、p(です)、p(ね)、p(文末)が取得される。そして、各単語の出現確率の積を、文「おいしそうなうどんですね」の尤度とする。これは、学習済みの文生成モデル232における、「おいしそうなうどんですね」という文の尤もらしさを表している。
図5は、本実施形態に係るRNNにより、未知語に類似した置き換え可能な語を予測する方法を例示する図である。
ここでは、分かち書き処理された文「おいし/そう/な/ひっつみ/です/ね」を例として動作を説明する。この例では、単語「ひっつみ」は未知語であり、分かち書き辞書21及びキーワード辞書22には含まれるが、文生成辞書231に含まれない単語であるとする。
未知語予測部14は、図4と同様に、単語「おいし」、「そう」、「な」を順にRNNに入力していくが、「ひっつみ」は文生成辞書231には含まれないため、RNNに入力できない。このため、未知語予測部14は、「な」を入力したときのRNNの出力のうち、出現確率の高い上位の単語を未知語「ひっつみ」を置き換え可能な予測語の候補Xとする。
この例では、出現確率p(うどん)、p(そば)、p(ラーメン)が高く、予測語の候補Xとして、「うどん」、「そば」、「ラーメン」の3語が選択されている。
そして、未知語予測部14は、図4に示した尤度の計算方法に従って、「うどん」、「です」、「ね」を入力し、文「おいしそうなうどんですね」の尤度(pうどん)、「そば」、「です」、「ね」を入力して、文「おいしそうなそばですね」の尤度(pそば)、「ラーメン」、「です」、「ね」を入力して、文「おいしそうなラーメンですね」の尤度(pラーメン)を求める。
未知語予測部14は、これらの3つの尤度(pうどん、pそば、pラーメン)の中から、最も大きい尤度の文に用いた予測語の候補を、未知語に対する予測語として決定する。
図6は、本実施形態に係るRNNにより新たな文を生成する方法を例示する図である。
ここでは、未知語に対する予測語「うどん」を元に、RNNを用いて文を生成した例を示している。
RNNに「うどん」を入力したとき、出力として「を」の出現確率が高く、この出現確率が高い語「を」をRNNの次のステップの入力としている。このようにして、前のステップの出力のうち、出現確率の高い語を次のステップの入力に使うことで、「うどん」、「を」、「食べ」、「たい」、「な」、「文末」が順に得られ、結果として、「うどんを食べたいな」という文が生成される。
なお、RNNの入力語に対する出力語の選択は、必ずしも出現確率が上位なものには限られない。生成された文の尤度が最大となる語の探索には、様々な既知の方法が採用可能である。
本実施形態によれば、文生成装置1は、テレビの字幕文等の入力文Iからキーワードを抽出し、このキーワードを元に新たな出力文Oを生成できる。特に、文生成装置1は、抽出したキーワードが文生成のための学習済み辞書にない未知語であっても、この未知語を置き換えても意味が通る類似した予測語を、学習済みの辞書の語彙の中から予測する。そして、文生成装置1は、予測語を元にして文を生成した後、予測語を未知語に置換することで、出力文Oを生成する。
したがって、文生成装置1は、入力文Iに含まれるキーワードから文を生成する際に、キーワードが学習済みの辞書にない未知語の場合であっても、このキーワードを含む文を生成できる。
この結果、例えば、文生成装置1をコミュニケーションロボットに組み込むことで、ロボットは、テレビの字幕文等からキーワードを抽出し、たとえ、このキーワードが未知語であっても、キーワードを元にした文を生成して発話することができる。
文生成装置1は、文生成モデル232としてRNNを用いることにより、語順を考慮した精度の良い予測語を選択できる。
また、文生成装置1は、文生成に用いる学習モデルを未知語予測処理に用いることで、文生成処理との親和性を高め、リソースを有効活用して実装を容易にできる。
[第2実施形態]
以下、本発明の第2実施形態について説明する。
本実施形態において、文生成装置1の機能構成は、第1実施形態と同様であるが、未知語予測部14の処理が第1実施形態とは異なる。
第1実施形態では、未知語予測部14は、分かち書き文の文頭から文末へ順に語を入力して1方向のRNNにより学習した学習済みモデルを用いた。
これに加え、本実施形態では、未知語予測部14は、分かち書き文の文末から文頭へ順に語を入力して学習した学習済みモデルを併用し、それぞれを用いて、2方向のRNNにより尤度を算出する。
図7は、本実施形態に係る2方向のRNNを用いた未知語予測処理を示す概要図である。
図7の上部が、文末から文頭へ(Reverse方向へ)順に語を入力するRNNのモデルを使って文の尤度を算出する方法を示し、図7の下部が、第1実施形態(図5)と同様に文頭から文末へ(Forward方向へ)順に語を入力するRNNのモデルを使って文の尤度を算出する方法を示している。
Forward方向では、未知語「ひっつみ」の予測語として「うどん」を予測し、「おいし/そう/な/うどん/です/ね」という文の尤度pfwdを求めている。また、Reverse方向では、未知語「ひっつみ」の予測語として「ラーメン」を予測し、「ね/です/ラーメン/な/そう/おいし」という文の尤度prevを求めている。
未知語予測部14は、Forward方向の尤度pfwdとReverse方向の尤度prevとを比較し、大きい方の文で予測した語を未知語の予測語として採用する。
この例では、Forward方向も、Reverse方向も、共に1文で比較したが、図5で説明したように、2方向それぞれで複数の予測語の候補に対して文の尤度を算出し、全体の中で最大の尤度となった文が選択されてもよい。
また、例えば、未知語予測部14は、同一の候補を用いた文の2方向の尤度を平均し、平均値が最大の候補を予測語として選択してもよい。
本実施形態によれば、文生成装置1は、未知語予測処理に用いるRNNに、2方向のモデルデータを使うことで、未知語が文頭に近いためにForward方向による予測精度が十分でない場合、文末からの予測も用いることで、予測精度を改善できる。
なお、文生成装置1は、例えば入力文Iの中の未知語の位置等に応じて、Forward方向又はReverse方向のいずれか一方を決定し、処理負荷を低減してもよい。
[第3実施形態]
以下、本発明の第3実施形態について説明する。
本実施形態において、文生成装置1の機能構成は、第1及び第2実施形態と同様であるが、未知語予測部14の処理が第1及び第2実施形態とは異なる。
第1及び第2実施形態では、文生成学習データ23としてRNNを用いたが、学習モデルはこれに限定されるものではない。
例えば、文生成装置1は、非特許文献1のように、過去に収集したテレビ番組の字幕文等からテンプレート文と語彙とを学習し、語彙の共起性を使って、テンプレート文とキーワードとの組み合わせを決定することで、キーワードから文を生成してもよい。
語彙の共起性は、例えば、Word2vec(黒橋禎夫、柴田知秀、“自然言語処理概論”、サイエンス社(2016))により求められる。
本実施形態では、未知語予測部14は、入力文Iに含まれる語との共起性に基づいて、予測語を選択する。
図8は、本実施形態に係る未知語予測処理の動作を示す概略図である。
ここでは、文生成学習データ23の学習アルゴリズムとして、Word2vecを利用するものとする。
Word2vecは、M次元の入力層、N次元の隠れ層、M次元の出力層からなるニューラルネットワークである。入力層及び出力層の次元数Mは、文生成辞書231の語彙数である。隠れ層の次元数Nは、学習時に予め設定しておく任意の値であり、例えば200次元等が使われる。
Word2vecでは、RNNとは異なり、文に含まれる語の順番は無視される。入力層へ対象の語の周辺に出現する語が入力され、出力層で対象の単語の出現確率が高くなるように、入力層と隠れ層との間の重み行列W、及び隠れ層と出力層との間の重み行列Vが学習される。このWord2vecの学習済みデータが文生成モデル232として用いられる。
未知語予測部14は、文中の未知語以外の周辺語を入力層に与える。結果として、出力層には、各語彙の出現確率が出力されるため、未知語予測部14は、出現確率の高い語を予測語として用いる。
図8の例では、「おいし/そう/な/ひっつみ/ですね」の分かち書き文に対して、未知語「ひっつみ」を除く、「おいし」、「そう」、「な」「ですね」が入力層に与えられている。結果として、ラーメンの出現確率p(ラーメン)が一番大きく、未知語「ひっつみ」の予測語として「ラーメン」が選択される。
本実施形態によれば、文生成装置1は、Word2vecのような文の語順を考慮しない学習方法であっても、共起性を用いて、文内の未知語を、語彙内の既知語で予測することができる。特に、文生成装置1は、非特許文献1に示されたWord2vecを用いた感情文を含む発話文生成方法を併用することで、未知語を含む感情表現文を生成することができる。
また、語順を考慮しない方法は、語数の少ない文に対して有効なため、例えば、文生成装置1は、文の長さに応じて、第1又は第2実施形態と、第3実施形態とを切り替える構成であってもよい。
以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。
前述の実施形態では、文生成モデル232として、RNN又はWord2vecの学習済みモデルを使う例を示したが、これに限定されるものではない。文生成モデルとしては、隠れマルコフモデル(HMM)、n−gram等、様々な言語モデルが利用可能である。これらはいずれも、ある語から他の語への遷移確率を学習する方法であるため、未知語予測部14は、これらの学習データを利用して、未知語を同様に予測できる。
本実施形態では、主に文生成装置1の構成と動作について説明したが、本発明はこれに限られず、各構成要素を備え、入力文に対して新たな出力文を生成するための方法、又はプログラムとして構成されてもよい。
さらに、文生成装置1の機能を実現するためのプログラムをコンピュータで読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータで読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時刻の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時刻プログラムを保持しているものも含んでもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
1 文生成装置
10 制御部
11 分かち書き処理部
12 キーワード抽出部
13 未知語判定部
14 未知語予測部
15 文生成部
16 未知語置換部
20 記憶部
21 分かち書き辞書
22 キーワード辞書
23 文生成学習データ
231 文生成辞書
232 文生成モデル

Claims (6)

  1. 入力文から、所定の辞書に含まれているキーワードを抽出するキーワード抽出部と、
    学習モデルに基づき、前記キーワードを用いた新たな出力文を生成する文生成部と、
    前記キーワードが前記学習モデルの語彙に含まれる既知語であるか、又は前記学習モデルの語彙に含まれない未知語であるかを判定する未知語判定部と、
    前記キーワードが未知語である場合、前記学習モデルに基づいて、前記既知語の中から前記入力文において当該キーワードを置換可能な予測語を選択し、当該予測語を前記キーワードの代わりに前記文生成部へ提供する未知語予測部と、
    前記出力文の中に前記予測語が含まれる場合、当該予測語を元の未知語に置換する未知語置換部と、を備える文生成装置。
  2. 前記未知語予測部は、前記入力文に含まれる語との共起性に基づいて、前記予測語を選択する請求項1に記載の文生成装置。
  3. 前記未知語予測部は、前記入力文において前記キーワードを置換した場合の文全体の尤度に基づいて、前記予測語を選択する請求項2に記載の文生成装置。
  4. 前記未知語予測部は、文頭から文末へ順に語を入力した場合の学習モデル、及び文末から文頭へ順に語を入力した場合の学習モデルのそれぞれを用いて、前記尤度を算出する請求項3に記載の文生成装置。
  5. 入力文から、所定の辞書に含まれているキーワードを抽出するキーワード抽出ステップと、
    学習モデルに基づき、前記キーワードを用いた新たな出力文を生成する文生成ステップと、
    前記キーワードが前記学習モデルの語彙に含まれる既知語であるか、又は前記学習モデルの語彙に含まれない未知語であるかを判定する未知語判定ステップと、
    前記キーワードが未知語である場合、前記学習モデルに基づいて、前記既知語の中から前記入力文において当該キーワードを置換可能な予測語を選択し、当該予測語を前記キーワードの代わりに前記文生成ステップへ提供する未知語予測ステップと、
    前記出力文の中に前記予測語が含まれる場合、当該予測語を元の未知語に置換する未知語置換ステップと、をコンピュータが実行する文生成方法。
  6. 入力文から、所定の辞書に含まれているキーワードを抽出するキーワード抽出ステップと、
    学習モデルに基づき、前記キーワードを用いた新たな出力文を生成する文生成ステップと、
    前記キーワードが前記学習モデルの語彙に含まれる既知語であるか、又は前記学習モデルの語彙に含まれない未知語であるかを判定する未知語判定ステップと、
    前記キーワードが未知語である場合、前記学習モデルに基づいて、前記既知語の中から前記入力文において当該キーワードを置換可能な予測語を選択し、当該予測語を前記キーワードの代わりに前記文生成ステップへ提供する未知語予測ステップと、
    前記出力文の中に前記予測語が含まれる場合、当該予測語を元の未知語に置換する未知語置換ステップと、をコンピュータに実行させるための文生成プログラム。
JP2018075610A 2018-04-10 2018-04-10 文生成装置、文生成方法及び文生成プログラム Active JP7084761B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018075610A JP7084761B2 (ja) 2018-04-10 2018-04-10 文生成装置、文生成方法及び文生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018075610A JP7084761B2 (ja) 2018-04-10 2018-04-10 文生成装置、文生成方法及び文生成プログラム

Publications (2)

Publication Number Publication Date
JP2019185400A true JP2019185400A (ja) 2019-10-24
JP7084761B2 JP7084761B2 (ja) 2022-06-15

Family

ID=68341329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018075610A Active JP7084761B2 (ja) 2018-04-10 2018-04-10 文生成装置、文生成方法及び文生成プログラム

Country Status (1)

Country Link
JP (1) JP7084761B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325002A (zh) * 2020-02-17 2020-06-23 广东博智林机器人有限公司 文本生成方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129318A (ja) * 2006-11-21 2008-06-05 Nippon Hoso Kyokai <Nhk> 言語モデル作成装置及び言語モデル作成プログラム並びに音声認識装置及び音声認識プログラム
JP2008225963A (ja) * 2007-03-14 2008-09-25 National Institute Of Information & Communication Technology 機械翻訳装置、置換辞書生成装置、機械翻訳方法、置換辞書生成方法、及びプログラム
JP2016024325A (ja) * 2014-07-18 2016-02-08 日本放送協会 言語モデル生成装置、およびそのプログラム、ならびに音声認識装置
WO2016067418A1 (ja) * 2014-10-30 2016-05-06 三菱電機株式会社 対話制御装置および対話制御方法
JP2016161968A (ja) * 2015-02-26 2016-09-05 日本電信電話株式会社 単語ベクトル学習装置、自然言語処理装置、方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129318A (ja) * 2006-11-21 2008-06-05 Nippon Hoso Kyokai <Nhk> 言語モデル作成装置及び言語モデル作成プログラム並びに音声認識装置及び音声認識プログラム
JP2008225963A (ja) * 2007-03-14 2008-09-25 National Institute Of Information & Communication Technology 機械翻訳装置、置換辞書生成装置、機械翻訳方法、置換辞書生成方法、及びプログラム
JP2016024325A (ja) * 2014-07-18 2016-02-08 日本放送協会 言語モデル生成装置、およびそのプログラム、ならびに音声認識装置
WO2016067418A1 (ja) * 2014-10-30 2016-05-06 三菱電機株式会社 対話制御装置および対話制御方法
US20170199867A1 (en) * 2014-10-30 2017-07-13 Mitsubishi Electric Corporation Dialogue control system and dialogue control method
JP2016161968A (ja) * 2015-02-26 2016-09-05 日本電信電話株式会社 単語ベクトル学習装置、自然言語処理装置、方法、及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
今村 賢治、外1名: "双方向リランキングとアンサンブルを併用したニューラル機械翻訳における複数モデルの利用法", 情報処理学会 研究報告 自然言語処理(NL), JPN6022018035, 17 October 2017 (2017-10-17), JP, pages 1 - 8, ISSN: 0004765748 *
尾形 朋哉、外3名: "キーワードに基づくニューラル文生成のためのリランキング", 言語処理学会第23回年次大会 発表論文集 [ONLINE], JPN6022018034, 7 July 2017 (2017-07-07), JP, pages 679 - 682, ISSN: 0004765746 *
水上 仁志、外1名: "統計的機械翻訳における未知の一般語と固有名への対処", 言語処理学会第23回年次大会 発表論文集 [ONLINE], JPN6022018033, 7 July 2017 (2017-07-07), JP, pages 1042 - 1045, ISSN: 0004765747 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325002A (zh) * 2020-02-17 2020-06-23 广东博智林机器人有限公司 文本生成方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JP7084761B2 (ja) 2022-06-15

Similar Documents

Publication Publication Date Title
KR101780760B1 (ko) 가변길이 문맥을 이용한 음성인식
JP3768205B2 (ja) 形態素解析装置、形態素解析方法及び形態素解析プログラム
CN113924619A (zh) 通过流式端到端模型的大规模多语言语音识别
CN112599128B (zh) 一种语音识别方法、装置、设备和存储介质
JP7072178B2 (ja) 自然言語処理のための装置、方法及びプログラム
US20220122622A1 (en) Cascaded Encoders for Simplified Streaming and Non-Streaming ASR
Milde et al. Multitask sequence-to-sequence models for grapheme-to-phoneme conversion.
US11961515B2 (en) Contrastive Siamese network for semi-supervised speech recognition
KR20200026295A (ko) 음절 기반 자동 음성 인식
US11715458B2 (en) Efficient streaming non-recurrent on-device end-to-end model
JP4755478B2 (ja) 応答文生成装置、応答文生成方法、そのプログラムおよび記憶媒体
KR20220128397A (ko) 자동 음성 인식을 위한 영숫자 시퀀스 바이어싱
JP2015125499A (ja) 音声通訳装置、音声通訳方法及び音声通訳プログラム
Ren et al. Speech pre-training with acoustic piece
JP6810580B2 (ja) 言語モデル学習装置およびそのプログラム
JP2019219827A (ja) 言語モデル学習装置およびそのプログラム、ならびに、単語推定装置およびそのプログラム
Khassanov et al. Enriching rare word representations in neural language models by embedding matrix augmentation
JP7084761B2 (ja) 文生成装置、文生成方法及び文生成プログラム
JP5243325B2 (ja) 音声認識に仮名漢字変換システムを用いた端末、方法及びプログラム
Zahariev et al. Semantic analysis of voice messages based on a formalized context
KR20240065125A (ko) 희귀 단어 스피치 인식을 위한 대규모 언어 모델 데이터 선택
KR20230156425A (ko) 자체 정렬을 통한 스트리밍 asr 모델 지연 감소
Djeffal et al. Automatic speech recognition with BERT and CTC transformers: A review
Kumar et al. Self-supervised accent learning for under-resourced accents using native language data
Fukuda et al. Global RNN Transducer Models For Multi-dialect Speech Recognition.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220603

R150 Certificate of patent or registration of utility model

Ref document number: 7084761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150