JP2016105232A - 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体 - Google Patents

言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体 Download PDF

Info

Publication number
JP2016105232A
JP2016105232A JP2014242939A JP2014242939A JP2016105232A JP 2016105232 A JP2016105232 A JP 2016105232A JP 2014242939 A JP2014242939 A JP 2014242939A JP 2014242939 A JP2014242939 A JP 2014242939A JP 2016105232 A JP2016105232 A JP 2016105232A
Authority
JP
Japan
Prior art keywords
language model
learning data
language
recurrent neural
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014242939A
Other languages
English (en)
Other versions
JP6230987B2 (ja
Inventor
亮 増村
Akira Masumura
亮 増村
浩和 政瀧
Hirokazu Masataki
浩和 政瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014242939A priority Critical patent/JP6230987B2/ja
Publication of JP2016105232A publication Critical patent/JP2016105232A/ja
Application granted granted Critical
Publication of JP6230987B2 publication Critical patent/JP6230987B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】任意のタスクにモデル適応が可能なリカレントニューラルネットワークに基づく言語モデルを作成する。【解決手段】学習データ分割部2は、学習データを複数の要素学習データに分割する。要素言語モデル学習部3は、要素学習データからリカレントニューラルネットワークを学習して要素言語モデルを作成する。混合重み推定部6は、適応データと複数の要素言語モデルとを用いて各要素言語モデルに対する混合重みを推定する。言語モデル混合部7は、複数の要素言語モデルと複数の混合重みとを用いてリカレントニューラルネットワークを学習して混合言語モデルを作成する。【選択図】図1

Description

この発明は、リカレントニューラルネットワークに基づく言語モデルを作成する技術に関する。
音声認識や機械翻訳では、言語的な予測のために言語モデルが必要である。言語モデルは、言語らしさを計測可能なものであり、その性能が音声認識や機械翻訳の性能を左右するものである。これまで、様々な種類の言語モデルが提案されてきているが、近年リカレントニューラルネットワークに基づく言語モデルが注目されている。リカレントニューラルネットワークに基づく言語モデルの詳細は非特許文献1などを参考にされたい。リカレントニューラルネットワークに基づく言語モデルは、非常に高い言語予測能力を持ち、音声認識や機械翻訳で積極的に利用されている。
リカレントニューラルネットワークに基づく言語モデルは、テキストデータから学習できる。このとき、対象タスクに適合したテキストデータからリカレントニューラルネットワークに基づく言語モデルを学習することで、高い性能を実現できる。リカレントニューラルネットワークによる確率予測では、直前の単語wi-1と直前のネットワーク中の中間層の出力si-1の2つが入力となり、現在の単語wiの予測確率P(wi|wi-1,si-1,θ)を構成する。ここで、θはリカレントニューラルネットワークのモデルパラメータである。
Mikolov Tomas, Karafiat Martin, Burget Lukas, Cernocky Jan, Khudanpur Sanjeev, "Recurrent neural network based language model", INTERSPEECH 2010, pp. 1045-1048, 2010.
リカレントニューラルネットワークに基づく言語モデルはモデル適応が行えないという問題がある。モデル適応とは、少量の情報を与えるだけで認識したい音声のタスク(対象タスク)に特化した言語モデルを構築する枠組みである。特化するとは、そのタスクでよく使われる言語現象に高い生起確率を与えることである。例えば、ニュース音声を認識する際はニュース音声に特化した言語モデルを用い、コールセンター音声を認識する際はコールセンター音声に特化した言語モデルを用いることが有効である。リカレントニューラルネットワークは、与えられたデータを最適に識別するように学習するため、例えば、データAで学習したリカレントニューラルネットワークのネットワーク構造に対して、新たにデータBを与えれば、データBに最適になるように学習されるが、データAで学習したときの情報は利用できなくなる。また、例えば、ある程度データBを得られたらデータBに最適になるように学習できれば、データAの情報はほとんど必要なくなると考えられるが、リカレントニューラルネットワークの学習には多くの計算時間を必要とするため、ネットワークの中身を容易に変更することはできない。
上記の問題をまとめると、リカレントニューラルネットワークは既存のネットワークの情報を引き継げないためモデル適応ができず、仮にモデル適応に近い処理(例えば再学習など)を行うとしても多くの計算時間が必要となるため容易に実施できない。例えば、音声認識では音声認識中に逐次モデル適応を行うことが理想的であるが、そのような形態をリカレントニューラルネットワークに基づく言語モデルでは実施できない。
この発明の目的は、任意のタスクにモデル適応が可能なリカレントニューラルネットワークに基づく言語モデルを作成する技術を提供することである。
上記の課題を解決するために、この発明の言語モデル作成装置は、学習データを複数の要素学習データに分割する学習データ分割部と、要素学習データからリカレントニューラルネットワークを学習して要素言語モデルを作成する要素言語モデル学習部と、適応データと複数の要素言語モデルとを用いて各要素言語モデルに対する混合重みを推定する混合重み推定部と、複数の要素言語モデルと複数の混合重みとを用いてリカレントニューラルネットワークを学習して混合言語モデルを作成する言語モデル混合部と、を含む。
この発明の言語モデル作成技術によれば、既存のリカレントニューラルネットワークに基づく言語モデルのネットワーク構造に手を入れることなく、混合重みのパラメータのみを変更することで特定のタスクに適応することが可能となる。混合重みは、例えば3混合であれば3つの混合重みが存在し、可変パラメータを制限しているため、高速なモデル適応を実施可能である。これにより、リカレントニューラルネットワークが持つ優れた言語識別能力を利用しながら、簡単かつ高速にモデル適応が可能な言語モデルを作成することが可能となる。
図1は、言語モデル作成装置の機能構成を例示する図である。 図2は、言語モデル作成方法の処理フローを例示する図である。
この発明では、上述の課題を解決するために、リカレントニューラルネットワークに基づく言語モデルを混合モデルとして表現する。従来技術では1つの言語リソースから1つのリカレントニューラルネットワークを構築していたが、この発明では1つの言語リソースを最初に複数に分割し、分割された各言語リソースそれぞれからリカレントニューラルネットワークに基づく言語モデルを学習し、各言語モデルの出力を重み付きで足し合わせる。そして、学習したリカレントニューラルネットワークは固定とし、出力を足し合わせるときの混合重みのみを可変パラメータとしてモデル化する。モデル適応の際には、適応のためのデータに対して最適になるように混合重みを決定する。したがって、この発明では、リカレントニューラルネットワークに基づく言語モデルの構築方法と、混合重みの最適化方法がポイントとなる。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
実施形態の言語モデル作成装置は、図1に示すように、学習データ記憶部1、学習データ分割部2、要素言語モデル学習部3、K(≧1)個の要素言語モデル記憶部41,…,4K、適応データ記憶部5、混合重み推定部6、言語モデル混合部7、および混合言語モデル記憶部8を例えば含む。
言語モデル作成装置は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。言語モデル作成装置は、例えば、中央演算処理装置の制御のもとで各処理を実行する。言語モデル作成装置に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて読み出されて他の処理に利用される。また、言語モデル作成装置の各処理部の少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。
言語モデル作成装置が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。言語モデル作成装置が備える各記憶部は、それぞれ論理的に分割されていればよく、一つの物理的な記憶装置に記憶されていてもよい。
学習データ記憶部1には、学習データが記憶されている。学習データは、対象タスクに適合した十分な量のテキストデータである。例えば、対象タスクの音声を人手により書き起こしを行うことで得られたテキストを利用してもよいし、対象タスクに関連するドキュメント(例えば、Webテキスト)など複数の言語資源を組み合わせて利用してもよい。本形態では、学習データはすでに単語単位に分かち書きされ、文単位で区切られているものとする。
適応データ記憶部5には、適応データが記憶されている。適応データは、対象タスクに適合した比較的少量のテキストデータである。適応データは、例えば、学習データの一部を用いてもよいし、別途異なる言語資源からテキストデータを収集して用いてもよい。
図2を参照して、実施形態の言語モデル作成方法の処理手続きを説明する。
ステップS1において、学習データ分割部2は、学習データ記憶部1に記憶された学習データをK個の要素学習データに分割する。K個に分割された要素学習データは要素言語モデル学習部3へ送られる。ここで、Kは任意の正の整数である。この発明では学習データを分割する基準は限定されないが、一般的に、言語モデル適応では話題やスタイルといった観点でモデル適応を行うことが多い。そのため、分割の基準は言語モデルの用途に応じて適切に設計すればよい。
学習データを分割する方法を具体的に例示する。例えば、学習データが文単位で区切られていることを利用して、文の単語情報を素性ベクトルとして、ベクトル空間上のクラスタリング技術を利用して分割することができる。例えば、公知のK-meansクラスタリングを利用すれば、学習データの各文をK個のクラスタに当てはめたクラスタリングが可能である。これによって、K個の要素学習データに分割することができる。
また、例えば、確率的トピックモデルに学習データをあてはめることでクラスタリングすることも可能である。具体的には、代表的なトピックモデルである確率的潜在意味解析(PLSA: Probabilistic Latent Semantic Analysis)を利用して分割することができる。例えば、K個のトピックが存在するトピックモデルを学習すると、学習データの各文に対して各トピックの寄与確率を求めることができる。文sのトピックzに対する確率をP(z|s)として、次式によってクラスタリングを行うことができる。
Figure 2016105232
これによって、K個のトピックごとに文集合を作ることができ、K個の要素学習データに分割することができる。
ステップS2において、要素言語モデル学習部3は、学習データ分割部2から受け取ったK個の要素学習データそれぞれからリカレントニューラルネットワークを学習し、K個のリカレントニューラルネットワークに基づく言語モデル(以下、要素言語モデルと呼ぶ)を作成する。K個の要素言語モデルそれぞれは要素言語モデル記憶部41,…,4Kに記憶される。リカレントニューラルネットワークの学習は通常の枠組みと同様である。詳しくは、非特許文献1などを参照されたい。
ステップS3において、混合重み推定部6は、適応データ記憶部5に記憶された適応データと、要素言語モデル記憶部41,…,4Kに記憶されたK個の要素言語モデルとを用いて、K個の混合重みλ1,…,λKを推定する。推定された混合重みλ1,…,λKは言語モデル混合部7へ送られる。混合重みλ1,…,λKは、後述の混合言語モデルを構築した際に、適応データに対する識別確率が最大化するように求める。この問題はEMアルゴリズムを利用することで求めることが可能である。
k番目の要素言語モデルに対する混合重みをλkとする。このとき、混合重みλ1,…,λKには次式のような制約がある。
Figure 2016105232
混合重みλkは、EMアルゴリズムに基づいて、再帰的に、次式のように求めることができる。
Figure 2016105232
ここで、w1,…,wLは適応データの単語列であり、si-1 kはk番目の要素言語モデルのi-1番目の中間層の出力であり、θkはk番目の要素言語モデルのモデルパラメータである。右辺のλkは一回前に求めた混合重みであり、左辺のλkは更新された混合重みである。
EMアルゴリズムでは、初期の混合重みはすべての混合重みを等価とするのが一般的である。例えば、K=2であれば、λk=1/2と与えればよい。繰り返し回数は、例えば、固定数を設定しておけばよい。もしくは、混合重みは必ず局所最適に収束するので、混合重みの変化量について閾値を決定することで収束判定をしてもよい。
ステップS4において、言語モデル混合部7は、要素言語モデル記憶部41,…,4Kに記憶されたK個の要素言語モデルと、混合重み推定部6から受け取ったK個の混合重みλ1,…,λKとを用いてリカレントニューラルネットワークを学習し、リカレントニューラルネットワークに基づく言語モデル(以下、混合言語モデルと呼ぶ)を作成する。作成された混合言語モデルは混合言語モデル記憶部8へ記憶される。
混合言語モデルは次式により表される。
Figure 2016105232
ここで、wiは現在の単語であり、wi-1は直前の単語であり、si-1 kはk番目の要素言語モデルのi-1番目の中間層の出力であり、θkはk番目の要素言語モデルのモデルパラメータである。つまり、入力は直前の単語wi-1だけでよいが、それぞれの要素言語モデルにおける1つ前の中間層の出力si-1は残しておくことになる。このように混合言語モデルを構成すると、混合重みのみを適応データで最適化しているため、各要素言語モデルのネットワーク構造はそのまま保持される。
本形態のリカレントニューラルネットワークに基づく混合言語モデルは、通常のリカレントニューラルネットワークに基づく言語モデルと同様に、音声認識や機械翻訳に利用できる。上記の式に従って確率計算を行うことによって言語予測を実現できる。
上記のように構成することで、既存のリカレントニューラルネットワークに基づく言語モデルのネットワーク構造に手を入れることなく、混合重みのパラメータのみを変更することで、特定のタスクに適応することが可能となる。混合重みは、例えば3混合であれば3つの重みが存在し、可変パラメータを制限しているため、高速なモデル適応を実施可能である。これにより、リカレントニューラルネットワークが持つ優れた言語識別能力を利用しながら、簡単かつ高速にモデル適応を実施することが可能となる。
この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
1 学習データ記憶部
2 学習データ分割部
3 要素言語モデル学習部
4 要素言語モデル記憶部
5 適応データ記憶部
6 混合重み記憶部
7 言語モデル混合部
8 混合言語モデル記憶部

Claims (8)

  1. 学習データを複数の要素学習データに分割する学習データ分割部と、
    上記要素学習データからリカレントニューラルネットワークを学習して要素言語モデルを作成する要素言語モデル学習部と、
    適応データと複数の上記要素言語モデルとを用いて各要素言語モデルに対する混合重みを推定する混合重み推定部と、
    複数の上記要素言語モデルと複数の上記混合重みとを用いてリカレントニューラルネットワークを学習して混合言語モデルを作成する言語モデル混合部と、
    を含む言語モデル作成装置。
  2. 請求項1に記載の言語モデル作成装置であって、
    Kを上記要素言語モデルの数とし、kを1以上K以下の各整数とし、wiをi番目の単語とし、wi-1をi-1番目の単語とし、si-1 kをk番目の要素言語モデルのi-1番目の中間層の出力とし、θkをk番目の要素言語モデルのモデルパラメータとし、λkをk番目の要素言語モデルに対する混合重みとし、
    上記混合言語モデルは次式により表されるものである
    Figure 2016105232
    言語モデル作成装置。
  3. 請求項1または2に記載の言語モデル作成装置であって、
    Kを上記要素言語モデルの数とし、kを1以上K以下の各整数とし、w1,…,wLを上記適応データの単語列とし、si-1 kをk番目の要素言語モデルのi-1番目の中間層の出力とし、θkをk番目の要素言語モデルのモデルパラメータとし、λkをk番目の要素言語モデルに対する混合重みとし、
    Figure 2016105232
    とし、
    上記混合重み推定部は、次式を用いて上記混合重みを求めるものである
    Figure 2016105232
    言語モデル作成装置。
  4. 学習データ分割部が、学習データを複数の要素学習データに分割する学習データ分割ステップと、
    要素言語モデル学習部が、上記要素学習データからリカレントニューラルネットワークを学習して要素言語モデルを作成する要素言語モデル学習ステップと、
    混合重み推定部が、適応データと複数の上記要素言語モデルとを用いて各要素言語モデルに対する混合重みを推定する混合重み推定ステップと、
    言語モデル混合部が、複数の上記要素言語モデルと複数の上記混合重みとを用いてリカレントニューラルネットワークを学習して混合言語モデルを作成する言語モデル混合ステップと、
    を含む言語モデル作成方法。
  5. 請求項4に記載の言語モデル作成方法であって、
    Kを上記要素言語モデルの数とし、kを1以上K以下の各整数とし、wiをi番目の単語とし、wi-1をi-1番目の単語とし、si-1 kをk番目の要素言語モデルのi-1番目の中間層の出力とし、θkをk番目の要素言語モデルのモデルパラメータとし、λkをk番目の要素言語モデルに対する混合重みとし、
    上記混合言語モデルは次式により表されるものである
    Figure 2016105232
    言語モデル作成方法。
  6. 請求項4または5に記載の言語モデル作成方法であって、
    Kを上記要素言語モデルの数とし、kを1以上K以下の各整数とし、w1,…,wLを上記適応データの単語列とし、si-1 kをk番目の要素言語モデルのi-1番目の中間層の出力とし、θkをk番目の要素言語モデルのモデルパラメータとし、λkをk番目の要素言語モデルに対する混合重みとし、
    Figure 2016105232

    とし、
    上記混合重み推定ステップは、次式を用いて上記混合重みを求めるものである
    Figure 2016105232
    言語モデル作成方法。
  7. 請求項1から3のいずれかに記載の言語モデル作成装置としてコンピュータを機能させるためのプログラム。
  8. 請求項7に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2014242939A 2014-12-01 2014-12-01 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体 Active JP6230987B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014242939A JP6230987B2 (ja) 2014-12-01 2014-12-01 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014242939A JP6230987B2 (ja) 2014-12-01 2014-12-01 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体

Publications (2)

Publication Number Publication Date
JP2016105232A true JP2016105232A (ja) 2016-06-09
JP6230987B2 JP6230987B2 (ja) 2017-11-15

Family

ID=56102489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014242939A Active JP6230987B2 (ja) 2014-12-01 2014-12-01 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体

Country Status (1)

Country Link
JP (1) JP6230987B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108694163A (zh) * 2017-04-06 2018-10-23 富士通株式会社 计算句子中的词的概率的方法、装置和神经网络
JP2020501228A (ja) * 2016-11-04 2020-01-16 グーグル エルエルシー 機械学習タスクの暗黙的ブリッジング
WO2020017357A1 (ja) * 2018-07-19 2020-01-23 ソニー株式会社 制御装置、制御方法、およびプログラム
JP2020035019A (ja) * 2018-08-27 2020-03-05 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2019159995A1 (ja) * 2018-02-16 2021-02-04 日本電信電話株式会社 学習装置、識別装置、それらの方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010067033A (ja) * 2008-09-11 2010-03-25 Sony Corp データ処理装置、データ処理方法、及び、プログラム
JP2014098785A (ja) * 2012-11-14 2014-05-29 Nippon Telegr & Teleph Corp <Ntt> 言語モデル生成装置、言語モデル生成方法、プログラム、記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010067033A (ja) * 2008-09-11 2010-03-25 Sony Corp データ処理装置、データ処理方法、及び、プログラム
JP2014098785A (ja) * 2012-11-14 2014-05-29 Nippon Telegr & Teleph Corp <Ntt> 言語モデル生成装置、言語モデル生成方法、プログラム、記録媒体

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020501228A (ja) * 2016-11-04 2020-01-16 グーグル エルエルシー 機械学習タスクの暗黙的ブリッジング
CN108694163A (zh) * 2017-04-06 2018-10-23 富士通株式会社 计算句子中的词的概率的方法、装置和神经网络
CN108694163B (zh) * 2017-04-06 2021-11-26 富士通株式会社 计算句子中的词的概率的方法、装置和神经网络
JPWO2019159995A1 (ja) * 2018-02-16 2021-02-04 日本電信電話株式会社 学習装置、識別装置、それらの方法、およびプログラム
JP7017176B2 (ja) 2018-02-16 2022-02-08 日本電信電話株式会社 学習装置、識別装置、それらの方法、およびプログラム
WO2020017357A1 (ja) * 2018-07-19 2020-01-23 ソニー株式会社 制御装置、制御方法、およびプログラム
JP2020035019A (ja) * 2018-08-27 2020-03-05 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム
JP7155758B2 (ja) 2018-08-27 2022-10-19 大日本印刷株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP6230987B2 (ja) 2017-11-15

Similar Documents

Publication Publication Date Title
US11144831B2 (en) Regularized neural network architecture search
US11651163B2 (en) Multi-turn dialogue response generation with persona modeling
US10558646B2 (en) Cognitive deduplication-aware data placement in large scale storage systems
US11645470B2 (en) Automated testing of dialog systems
US20200066255A1 (en) Unsupervised Learning of Interpretable Conversation Models from Conversation Logs
US9412077B2 (en) Method and apparatus for classification
JP6230987B2 (ja) 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体
US11164562B2 (en) Entity-level clarification in conversation services
CN108604311B (zh) 利用层级式外部存储器的增强神经网络
KR101837262B1 (ko) 단어 자질 가중치를 적용한 딥 러닝 기반 개체 유형 분류 방법
US11823082B2 (en) Methods for orchestrating an automated conversation in one or more networks and devices thereof
US20200167604A1 (en) Creating compact example sets for intent classification
JP6259377B2 (ja) 対話システム評価方法、対話システム評価装置及びプログラム
US11144724B2 (en) Clustering of words with multiple meanings based on generating vectors for each meaning
EP3457397B1 (en) Oos sentence generating method and apparatus
US20230315999A1 (en) Systems and methods for intent discovery
US20230334241A1 (en) Syntactic and semantic autocorrect learning
US20230229859A1 (en) Zero-shot entity linking based on symbolic information
KR20240034804A (ko) 자동 회귀 언어 모델 신경망을 사용하여 출력 시퀀스 평가
US11887620B2 (en) Language model score calculation apparatus, language model generation apparatus, methods therefor, program, and recording medium
US20220180865A1 (en) Runtime topic change analyses in spoken dialog contexts
US11921768B1 (en) Iterative theme discovery and refinement in text
CN116910653A (zh) 适于精准分类的联邦半监督学习方法、介质及设备
JPWO2019159995A1 (ja) 学習装置、識別装置、それらの方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171018

R150 Certificate of patent or registration of utility model

Ref document number: 6230987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150