JP6928346B2 - 予測装置、予測方法および予測プログラム - Google Patents

予測装置、予測方法および予測プログラム Download PDF

Info

Publication number
JP6928346B2
JP6928346B2 JP2017135374A JP2017135374A JP6928346B2 JP 6928346 B2 JP6928346 B2 JP 6928346B2 JP 2017135374 A JP2017135374 A JP 2017135374A JP 2017135374 A JP2017135374 A JP 2017135374A JP 6928346 B2 JP6928346 B2 JP 6928346B2
Authority
JP
Japan
Prior art keywords
series
prediction
data
unit
series data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017135374A
Other languages
English (en)
Other versions
JP2019016324A (ja
Inventor
具治 岩田
具治 岩田
小川 厚徳
厚徳 小川
哲則 小林
哲則 小林
小川 哲司
哲司 小川
幹 森岡
幹 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Nippon Telegraph and Telephone Corp
Original Assignee
Waseda University
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University, Nippon Telegraph and Telephone Corp filed Critical Waseda University
Priority to JP2017135374A priority Critical patent/JP6928346B2/ja
Publication of JP2019016324A publication Critical patent/JP2019016324A/ja
Application granted granted Critical
Publication of JP6928346B2 publication Critical patent/JP6928346B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、予測装置、予測方法および予測プログラムに関する。
一般に、会話における単語列のような同質のデータを直列に並べた系列データは、性質の異なる様々なドメインから得られる。例えば、系列データの一例として、系列データに含まれる各系列の要素が単語で表される言語データは、会話ドメインや講演ドメイン等から得られる。
ここで、会話ドメインと講演ドメインとから得られている言語データのうち、会話ドメインの系列データの予測モデルを学習する場合について考える。一般に、学習データが多いほど予測モデルの予測性能は向上することから、予測対象の系列データのドメインとは異なるドメインのデータも併せて学習データとして利用する。例えば、上記の場合には、会話ドメインのデータと講演ドメインのデータとを利用して、予測モデルを学習する。
しかしながら、性質が異なる他のドメインのデータを学習データとして利用すると、予測モデルの予測性能が劣化する場合があった。そこで、他のドメインのデータを学習データとして利用した場合にも、予測性能の劣化を抑止する技術が知られている(非特許文献1参照)。
Hal Daume III,"Frustratingly Easy Domain Adaptation",Proc. Of the 45th Annual Meeting of the Association of Computational Linguistics,2007年,pp.256-263
しかしながら、従来の技術においては、ベクトルデータの適用が想定されており、系列データを適用して高精度に予測モデルを学習することができなかった。
本発明は、上記に鑑みてなされたものであって、ドメインの異なる系列データを学習データとして利用して、系列の予測モデルを高精度に学習することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る予測装置は、複数のドメインの系列データを取得する取得部と、前記系列データが属するドメインに応じて該系列データに含まれる各系列の特徴を表す特徴ベクトルを作成する作成部と、作成された前記特徴ベクトルを用いて、前記系列を予測する予測モデルを学習する学習部と、学習された前記予測モデルと新たに取得された前記系列データとを用いて、該系列データの次の系列を予測する予測部と、を備えることを特徴とする。
本発明によれば、ドメインの異なる系列データを学習データとして利用して、系列の予測モデルを高精度に学習することが可能となる。
図1は、本発明の一実施形態に係る予測装置の概略構成を例示する模式図である。 図2は、作成部の処理を説明するための説明図である。 図3は、学習部の処理を説明するための説明図である。 図4は、予測部の処理を説明するための説明図である。 図5は、本実施形態の予測処理手順を例示するフローチャートである。 図6は、実施例を説明するための説明図である。 図7は、予測プログラムを実行するコンピュータを例示する図である。
以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[予測装置の構成]
まず、図1を参照して、本実施形態に係る予測装置の概略構成を説明する。図1に示すように、本実施形態に係る予測装置10は、ワークステーションやパソコン等の汎用コンピュータで実現され、入力部11と出力部12と通信制御部13と、記憶部14と、制御部15とを備える。
入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部15に対して各種指示情報を入力する。出力部12は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置、情報通信装置等によって実現され、後述する予測処理の結果等を操作者に対して出力する。
通信制御部13は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した対象システム等の外部の装置と制御部15との通信を制御する。
記憶部14は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14には、予測装置10を動作させる処理プログラムや、処理プログラムの実行中に使用されるデータなどが予め記憶され、あるいは処理の都度一時的に記憶される。記憶部14は、通信制御部13を介して制御部15と通信する構成でもよい。
本実施形態において、記憶部14には、後述する予測処理において取得された系列データ14a、作成された特徴ベクトル14bおよび導出された予測モデルのモデルパラメータ14c等が保存される。
制御部15は、CPU(Central Processing Unit)等の演算処理装置がメモリに記憶された処理プログラムを実行することにより、図1に例示するように、取得部15a、作成部15b、学習部15cおよび予測部15dとして機能する。なお、これらの機能部は、それぞれあるいは一部が異なるハードウェアに実装されてもよい。
取得部15aは、複数のドメインの系列データを取得する。具体的に、取得部15aは、入力部11あるいは通信制御部13を介して、例えば、性質の異なる複数のドメインごとに系列データを収集するサーバ装置から、収集された系列データを取得する。また、取得部15aは、取得した系列データを、ドメインを識別する情報を付与する等によりドメインを区別して記憶部14に保存する。なお、本実施形態において、2つのドメインの系列データを処理の対象としているが、これに限定されず、3以上のドメインについても本発明は適用可能である。
作成部15bは、系列データが属するドメインに応じて該系列データに含まれる各系列の特徴を表す特徴ベクトルを作成する。ここで、図2を参照して、作成部15bの処理を具体的に説明する。
まず、取得部15aが、2つのドメインS、TからそれぞれN個、N個の系列を含む系列データ14aを取得したものとする。また、n(n=1,…,N+N)番目の系列の長さをTとし、n番目の系列のt(t=1,…,T)番目の時刻における要素である特徴をw (n)とする。この場合に、n番目の系列はw (n) (n)…wTn (n)と表される。
作成部15bは、n番目の系列のt番目の特徴w (n)ごとに、特徴ベクトルp (n)を作成する。ここで、特徴はシンボル形式のデータを想定しているが、ベクトル形式等、他の形式のデータでもよい。
図2に示すように、まず、作成部15bは、特徴w (n)からV次元の疎なベクトルx (n)を生成する(S11)。ここで、Vは特徴の種類の数を表す。また、w (n)がv番目の特徴であれば、x (n)はv番目の要素のみが1であり他の要素が0である疎なベクトルである。
次に、作成部15bは、疎なベクトルx (n)をE次元の密なベクトルu (n)に変換する(S12)。例えば、作成部15bは、次式(1)に示す線形変換により、x (n)を密なベクトルu (n)に変換する。
Figure 0006928346
Pはランダムに与えられてもよいが、本実施形態においては、予測モデルのモデルパラメータとして、後述する学習部の処理において学習される。
次に、作成部15bは、各系列が属するドメインに応じて密なベクトルu (n)を連結することにより、特徴ベクトルp (n)を作成する(S13)。その際、作成部15bは、各ドメインの系列の個別の特徴と、複数のドメインの系列の組み合わせの特徴とを連結して特徴ベクトルを作成する。本実施形態において、特徴ベクトルp (n)は、次式(2)に示す3E次元のベクトルで表される。
Figure 0006928346
上記式(2)において、はじめのE次元にドメインSの系列の個別の特徴が保持され、次のE次元にドメインTの系列の個別の特徴が保持され、最後のE次元にドメインS、Tの両ドメインの系列に共通の特徴が保持される。ドメインが3以上の場合には、作成部15bは、同様に、各ドメインの系列の個別の特徴と、複数のドメインの系列の組み合わせの特徴と、全ドメインの系列に共通の特徴とを連結して特徴ベクトルを作成する。また、作成部15bは作成した特徴ベクトル14bを記憶部14に保存する。
図1の説明に戻る。学習部15cは、作成された特徴ベクトルを用いて、系列を予測する予測モデルを学習する。本実施形態において、系列の予測モデルとして再帰的ニューラルネットワークを想定するが、これに限定されない。ある入力に対して次の系列を予測し、パラメータが予測値と真値との誤差に応じて更新できる任意のモデルを本発明に適用できる。例えば、LSTM(Long Short Term Memory)やGRU(Gated Recurrent Unit)などでもよい。
ここで、図3を参照して、学習部15cの処理を具体的に説明する。まず、学習部15cは、n=1,…,N+N、t=1,…,Tについての特徴ベクトルp (n)の集合を記憶部14から読み込む(S21)。
次に、学習部15cは、これまでのt’(t’=1,…,t−1)番目の時刻における系列の特徴pt’ (n)を記憶している1時刻前の隠れ層ht−1 (n)と、モデルパラメータWとを用いて、次式(3)により現在の隠れ層h (n)を計算する(S22)。
Figure 0006928346
1時刻前の隠れ層を、各ドメインの系列の個別の隠れ層と複数のドメインの系列の組み合わせの隠れ層とを連結したものにしてもよい。その場合、上記式(3)は、例えば、次式(4)または次式(5)で表される。
Figure 0006928346
Figure 0006928346
次に、学習部15cは、隠れ層h (n)とモデルパラメータMとを用いて、次式(6)により次の特徴量y (n)を予測する(S23)。
Figure 0006928346
隠れ層を、各ドメインの系列の個別の隠れ層と複数のドメインの系列の組み合わせの隠れ層とを連結したものにしてもよい。その場合、上記式(6)は、例えば、次式(7)または次式(8)で表される。
Figure 0006928346
Figure 0006928346
次に、学習部15cは、特徴量の予測値と真値との誤差を計算し、その誤差のモデルパラメータに関する勾配を計算する(S24)。ここで、予測値と真値とが近いほど誤差が小さくなり、予測値と真値とが遠いほど誤差が大きくなるモデルパラメータが用いられる。
次に、学習部15cは、誤差のモデルパラメータに関する勾配をもとにして、未知のデータに対する誤差が小さくなるようにモデルパラメータを更新する(S25)。
学習部15cは、以上の処理を、終了条件を満たすまで繰り返す(S26)。学習部15cは、終了条件を満たした場合のモデルパラメータを、学習した予測モデルのモデルパラメータ14cとして決定する。また、学習部15cは、決定したモデルパラメータ14cを記憶部14に保存する。ここで、終了条件には、繰り返し数が所定のしきい値より大きくなること、パラメータの変化量が所定のしきい値より小さくなること、あるいは、誤差の変化量が所定のしきい値より小さくなること等が適用される。
なお、上記のような各系列が属するドメインに応じた連結は、予測モデル構築のどの段階で適用されてもよい。
図1の説明に戻る。予測部15dは、学習された予測モデルと新たに取得された系列データとを用いて、該系列データの次の系列を予測する。ここで、図4を参照して、予測部15dの処理を具体的に説明する。
まず、予測部15dは、学習された予測モデルのモデルパラメータ14cを記憶部14から読み込むことにより、予測モデルを読み込む(S31)。また、予測部15dは、取得部15aから、次の系列を予測したい系列データを読み込む(S32)。また、予測部15dは、読み込んだ系列データと予測モデルとを用いて、読み込んだ系列データの次の系列を予測して(S33)、次の系列の特徴量y (n)を予測値として出力する。
[予測処理]
次に、図5を参照して、予測装置10による予測処理について説明する。図5は、予測処理手順を例示するフローチャートである。図5のフローチャートは、例えば、処理の開始を指示する操作入力があったタイミングで開始される。
まず、取得部15aが、複数のドメインの系列データを取得する。また、作成部15bが、系列データが属するドメインに応じて該系列データに含まれる各系列の特徴を表す特徴ベクトルを作成する(ステップS10)。具体的に、作成部15bは、n番目の系列のt番目の特徴w (n)ごとに、疎な特徴ベクトルp (n)を作成する。また、作成部15bは、疎なベクトルx (n)を密なベクトルu (n)に変換する。また、作成部15bは、各系列が属するドメインに応じて密なベクトルu (n)を連結することにより、特徴ベクトルp (n)を作成する。
次に、学習部15cが、作成された特徴ベクトルを用いて、系列を予測する予測モデルを学習する(ステップS20)。具体的に、学習部15cは、1時刻前の隠れ層ht−1 (n)と、モデルパラメータWとを用いて、現在の隠れ層h (n)を計算する。また、学習部15cは、隠れ層h (n)とモデルパラメータMとを用いて、次の特徴量y (n)を予測する。また、学習部15cは、特徴量の予測値と真値との誤差のモデルパラメータに関する勾配をもとにして、未知のデータに対する誤差が小さくなるようにモデルパラメータを更新する処理を、終了条件を満たすまで繰り返し、モデルパラメータを決定する。
次に、予測部15dが、学習された予測モデルと新たに取得された予測対象の系列データとを用いて、該系列データの次の系列を予測する(ステップS30)。これにより、一連の予測処理が終了する。
以上、説明したように、本実施形態の予測装置10では、取得部15aが、複数のドメインの系列データを取得する。また、作成部15bが、系列データが属するドメインに応じて該系列データに含まれる各系列の特徴を表す特徴ベクトルを作成する。また、学習部15cが、作成された特徴ベクトルを用いて、系列を予測する予測モデルを学習する。また、予測部15dが、学習された予測モデルと新たに取得された系列データとを用いて、該系列データの次の系列を予測する。
これにより、ドメインの異なる系列データを学習データとして利用して、系列の予測モデルを高精度に学習することが可能となる。
[実施例]
本実施形態の予測装置10を用いて、以下の手法で、日本語話し言葉コーパス(Corpus of Spontaneous Japanese:CSJ)を用いて会話データの予測精度を向上させる実験を行った。図6は実施例を説明するための説明図である。
手法1とは、会話データのみを用いて学習させる手法である。手法2とは、CSJと会話データとを同じドメインのデータとして学習させる手法である。また、本発明1とは、CSJと会話データとをドメインを区別して学習させる手法である。本発明1では、上記式(2)および上記式(3)が適用されている。すなわち、特徴ベクトルの作成に、各系列が属するドメインに応じた連結が適用され、隠れ層には各系列が属するドメインに応じた連結が適用されていない。
図6(a)は、手法1、手法2、および本発明1による実験結果を示す。ここで、パープレキシティは、言語モデルのよさを測る指標値であり、低いほど予測精度が高いことを表す。図6(a)に示すように、本発明1によれば、会話データのみを用いた手法1、CSJと会話データとをドメインを区別せずに用いた手法2と比較して、予測精度が大きく向上することがわかった。
また、本発明2とは、CSJと会話データとをドメインを区別して学習させる手法である。本発明2では、上記式(2)および上記式(6)が適用されている。すなわち、特徴ベクトルの作成および隠れ層に、各系列が属するドメインに応じた連結が適用されている。図6(b)は、手法1、手法2、本発明1、および本発明2による実験結果を示す。図6(b)に示すように、本発明1によれば、手法1、手法2と比較して、予測精度が大きく向上することがわかった。さらに、本発明2によれば、各系列が属するドメインに応じた連結の適用により、本発明1と比較して、さらに予測精度が向上することがわかった。
[プログラム]
上記実施形態に係る予測装置10が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、予測装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の予測処理を実行する予測プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の予測プログラムを情報処理装置に実行させることにより、情報処理装置を予測装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末、さらには、PDA(Personal Digital Assistants)などのスレート端末などがその範疇に含まれる。また、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の予測処理に関するサービスを提供するサーバ装置として実装することもできる。例えば、予測装置10は、系列データを入力とし、次の系列の予測結果を出力する予測処理サービスを提供するサーバ装置として実装される。この場合、予測装置10は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の予測処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。以下に、予測装置10と同様の機能を実現する予測プログラムを実行するコンピュータの一例を説明する。
図7に示すように、予測プログラムを実行するコンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。
ここで、図7に示すように、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1031やメモリ1010に記憶される。
また、予測プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、ハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明した予測装置10が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
また、予測プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、予測プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、予測プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
以上、本発明者によってなされた発明を適用した実施形態について説明したが、本実施形態による本発明の開示の一部をなす記述および図面により本発明は限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本発明の範疇に含まれる。
10 予測装置
11 入力部
12 出力部
13 通信制御部
14 記憶部
14a 系列データ
14b 特徴ベクトル
14c モデルパラメータ
15 制御部
15a 取得部
15b 作成部
15c 学習部
15d 予測部

Claims (3)

  1. 複数のドメインの系列データを取得する取得部と、
    前記系列データが属するドメインに応じて、各ドメインの該系列データに含まれる系列の個別の特徴と、複数のドメインの系列の組み合わせの特徴とを連結して、前記系列データの特徴を表す特徴ベクトルを作成する作成部と、
    作成された前記特徴ベクトルを用いて、前記系列を予測する予測モデルを、該系列の特徴の真値と予測値との誤差が所定のしきい値より小さくなるように学習し、該予測モデルのモデルパラメータを記憶部に保存する学習部と、
    前記記憶部から読み出したモデルパラメータを利用した、学習された前記予測モデルと新たに取得された前記系列データとを用いて、該系列データの次の系列を予測する予測部と、
    を備えることを特徴とする予測装置。
  2. 予測装置で実行される予測方法であって、
    複数のドメインの系列データを取得する取得工程と、
    前記系列データが属するドメインに応じて、各ドメインの該系列データに含まれる系列の個別の特徴と、複数のドメインの系列の組み合わせの特徴とを連結して、前記系列データの特徴を表す特徴ベクトルを作成する作成工程と、
    作成された前記特徴ベクトルを用いて、前記系列を予測する予測モデルを、該系列の特徴の真値と予測値との誤差が所定のしきい値より小さくなるように学習し、該予測モデルのモデルパラメータを記憶部に保存する学習工程と、
    前記記憶部から読み出したモデルパラメータを利用した、学習された前記予測モデルと新たに取得された前記系列データとを用いて、該系列データの次の系列を予測する予測工程と、
    を含んだことを特徴とする予測方法。
  3. 複数のドメインの系列データを取得する取得ステップと、
    前記系列データが属するドメインに応じて、各ドメインの該系列データに含まれる系列の個別の特徴と、複数のドメインの系列の組み合わせの特徴とを連結して、前記系列データの特徴を表す特徴ベクトルを作成する作成ステップと、
    作成された前記特徴ベクトルを用いて、前記系列を予測する予測モデルを、該系列の特徴の真値と予測値との誤差が所定のしきい値より小さくなるように学習し、該予測モデルのモデルパラメータを記憶部に保存する学習ステップと、
    前記記憶部から読み出したモデルパラメータを利用した、学習された前記予測モデルと新たに取得された前記系列データとを用いて、該系列データの次の系列を予測する予測ステップと、
    をコンピュータに実行させることを特徴とする予測プログラム。
JP2017135374A 2017-07-11 2017-07-11 予測装置、予測方法および予測プログラム Active JP6928346B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017135374A JP6928346B2 (ja) 2017-07-11 2017-07-11 予測装置、予測方法および予測プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017135374A JP6928346B2 (ja) 2017-07-11 2017-07-11 予測装置、予測方法および予測プログラム

Publications (2)

Publication Number Publication Date
JP2019016324A JP2019016324A (ja) 2019-01-31
JP6928346B2 true JP6928346B2 (ja) 2021-09-01

Family

ID=65356936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017135374A Active JP6928346B2 (ja) 2017-07-11 2017-07-11 予測装置、予測方法および予測プログラム

Country Status (1)

Country Link
JP (1) JP6928346B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102593832B1 (ko) * 2020-12-24 2023-10-26 한국과학기술원 과적합 없는 단일 신경망 기반 다중 도메인 적응 학습을 위한 컴퓨터 시스템, 및 그의 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5346327B2 (ja) * 2010-08-10 2013-11-20 日本電信電話株式会社 対話学習装置、要約装置、対話学習方法、要約方法、プログラム
JP5591772B2 (ja) * 2011-08-25 2014-09-17 日本電信電話株式会社 文脈依存性推定装置、発話クラスタリング装置、方法、及びプログラム
JP6109037B2 (ja) * 2013-10-23 2017-04-05 本田技研工業株式会社 時系列データ予測装置、時系列データ予測方法、及びプログラム
JP6149024B2 (ja) * 2014-11-18 2017-06-14 日本電信電話株式会社 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム

Also Published As

Publication number Publication date
JP2019016324A (ja) 2019-01-31

Similar Documents

Publication Publication Date Title
CN110366734B (zh) 优化神经网络架构
US9412077B2 (en) Method and apparatus for classification
CN110807515A (zh) 模型生成方法和装置
CN110766142A (zh) 模型生成方法和装置
US20180011931A1 (en) Master content summaries for variant content
JP2018537788A (ja) 外部メモリを用いたニューラルネットワークの拡張
CN111406264A (zh) 神经架构搜索
CN110663049A (zh) 神经网络优化器搜索
CN111340220B (zh) 用于训练预测模型的方法和装置
CN110046637B (zh) 一种合同段落标注模型的训练方法、装置及设备
CN110402445A (zh) 使用递归神经网络处理序列数据
CN111353601A (zh) 用于预测模型结构的延时的方法和装置
JP2019016239A (ja) 学習プログラム、学習方法及び学習装置
JP6230987B2 (ja) 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体
US11663413B2 (en) Dialog apparatus, dialog system, and computer-readable recording medium
CN112069294A (zh) 一种数学题处理方法、装置、设备及存储介质
CN113868368A (zh) 用于信息处理的方法、电子设备和计算机程序产品
CN112395880B (zh) 结构化三元组的纠错方法、装置、计算机设备及存储介质
JP6928346B2 (ja) 予測装置、予測方法および予測プログラム
WO2020095655A1 (ja) 選定装置および選定方法
WO2024012284A1 (zh) 音频识别方法、装置、电子设备和计算机程序产品
JP7212596B2 (ja) 学習装置、学習方法および学習プログラム
CN115374252B (zh) 一种基于原生Bert架构的文本分级方法及装置
CN112084784A (zh) 预测语义角色标注的功能性标记
JP7447985B2 (ja) 学習装置、学習方法、学習プログラム、推定装置、推定方法及び推定プログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210728

R150 Certificate of patent or registration of utility model

Ref document number: 6928346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150