JP2018045625A - 表キャプション生成器学習装置、表キャプション生成装置、方法、及びプログラム - Google Patents
表キャプション生成器学習装置、表キャプション生成装置、方法、及びプログラム Download PDFInfo
- Publication number
- JP2018045625A JP2018045625A JP2016182058A JP2016182058A JP2018045625A JP 2018045625 A JP2018045625 A JP 2018045625A JP 2016182058 A JP2016182058 A JP 2016182058A JP 2016182058 A JP2016182058 A JP 2016182058A JP 2018045625 A JP2018045625 A JP 2018045625A
- Authority
- JP
- Japan
- Prior art keywords
- encoding unit
- continuous value
- cell
- row
- column
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
次に、本発明の実施の形態に係る表キャプション生成器学習装置の構成について説明する。図1に示すように、本実施の形態に係る表キャプション生成器学習装置100は、CPUと、RAMと、後述する表キャプション生成器学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この表キャプション生成器学習装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部40とを含んで構成されている。
は行列の要素ごとの積を意味する。We、Wr、Ur、Wz、Uz、W、Uはセル間で共通のパラメータ行列である。トークンの種類をK種類、埋め込み次元をEとしたとき、xはK次元の1-of-Kベクトル(トークンに対応する部分のみ1、他は0)となる。WeはE×K次元のパラメータ行列となる。その他のW.はNc×E次元のパラメータ行列となる。U.はNc×Nc次元のパラメータ行列となる。hの初期値はNc次元の零ベクトルである。
図3に表キャプション生成の例を示す。表符号化ベクトルの出力をGRUの隠れベクトルhの初期値として、キャプションの次のトークンを予測する。
次に、本発明の実施の形態に係る表キャプション生成装置の構成について説明する。図4に示すように、本実施の形態に係る表キャプション生成装置150は、CPUと、RAMと、後述する表キャプション生成処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この表キャプション生成装置150は、機能的には図4に示すように入力部60と、演算部70と、出力部90とを含んで構成されている。
次に、本発明の実施形態に係る表キャプション生成器学習装置100の作用について説明する。表キャプション生成器学習装置100は、入力部10によって、訓練データ集合を受け付けると、表キャプション生成器学習装置100によって、図5に示す表キャプション生成器学習処理ルーチンが実行される。
次に、本発明の実施形態に係る表キャプション生成装置150の作用について説明する。表キャプション生成装置150は、入力部60によって、表形式データを受け付けると、表キャプション生成装置150によって、図6に示す表キャプション生成処理ルーチンが実行される。
20、70 演算部
22、72 セル符号化部
24、74 行符号化部
26、76 列符号化部
28、78 表符号化部
30 学習部
40、90 出力部
80 表キャプション生成部
100 表キャプション生成器学習装置
150 表キャプション生成装置
Claims (7)
- セルの行列として記述された表形式データと表のキャプションを表す正解ラベルとの組の集合である訓練データ集合に含まれる前記表形式データの各々について、表の各セルに対し、該セルに記載されたテキスト情報に含まれるトークンの系列を入力として、セルを連続値ベクトルに符号化するセル符号化部と、
前記訓練データ集合に含まれる前記表形式データの各々について、表の各行に対し、前記セル符号化部が出力した、該行に含まれるセルの連続値ベクトルの系列を入力として、行を連続値ベクトルに符号化する行符号化部と、
前記訓練データ集合に含まれる前記表形式データの各々について、表の各列に対し、前記セル符号化部が出力した、該列に含まれるセルの連続値ベクトルの系列を入力として、列を連続値ベクトルに符号化する列符号化部と、
前記訓練データ集合に含まれる前記表形式データの各々について、前記行符号化部および前記列符号化部が出力した各行及び各列の連続値ベクトルの系列を入力として、表を連続値ベクトルに符号化する表符号化部と、
前記訓練データ集合に含まれる前記表形式データの各々について前記表符号化部が出力した連続値ベクトルと、前記訓練データ集合に含まれる前記正解ラベルとに基づいて、表形式データの表のキャプションを生成するための生成器を学習する学習部と、
を有することを特徴とする表キャプション生成器学習装置。 - セルの行列として記述された表形式データについて、表の各セルに対し、該セルに記載されたテキスト情報に含まれるトークンの系列を入力として、セルを連続値ベクトルに符号化するセル符号化部と、
前記表形式データについて、表の各行に対し、前記セル符号化部が出力した、該行に含まれるセルの連続値ベクトルの系列を入力として、行を連続値ベクトルに符号化する行符号化部と、
前記表形式データについて、表の各列に対し、前記セル符号化部が出力した、該列に含まれるセルの連続値ベクトルの系列を入力として、列を連続値ベクトルに符号化する列符号化部と、
前記表形式データについて、前記行符号化部および前記列符号化部が出力した各行及び各列の連続値ベクトルの系列を入力として、表を連続値ベクトルに符号化する表符号化部と、
前記表符号化部が出力した連続値ベクトルと、表形式データの表のキャプションを生成するための予め学習された生成器とに基づいて、前記表形式データの表のキャプションを生成する表キャプション生成部と、
を有することを特徴とする表キャプション生成装置。 - 前記表キャプション生成部は、前記表符号化部が出力した連続値ベクトルと、表のキャプションの初期トークンとを入力として、前記生成器により、次のトークンを予測すると共に、前記連続値ベクトルを更新し、
前記更新された連続値ベクトルと、前記予測されたトークンとを入力として、前記生成器により、次のトークンを予測すると共に、前記連続値ベクトルを更新することを繰り返し、
前記予測されたトークンの系列を、前記表形式データの表のキャプションとして生成する請求項2記載の表キャプション生成装置。 - セル符号化部が、セルの行列として記述された表形式データと表のキャプションを表す正解ラベルとの組の集合である訓練データ集合に含まれる前記表形式データの各々について、表の各セルに対し、該セルに記載されたテキスト情報に含まれるトークンの系列を入力として、セルを連続値ベクトルに符号化し、
行符号化部が、前記訓練データ集合に含まれる前記表形式データの各々について、表の各行に対し、前記セル符号化部が出力した、該行に含まれるセルの連続値ベクトルの系列を入力として、行を連続値ベクトルに符号化し、
列符号化部が、前記訓練データ集合に含まれる前記表形式データの各々について、表の各列に対し、前記セル符号化部が出力した、該列に含まれるセルの連続値ベクトルの系列を入力として、列を連続値ベクトルに符号化し、
表符号化部が、前記訓練データ集合に含まれる前記表形式データの各々について、前記行符号化部および前記列符号化部が出力した各行及び各列の連続値ベクトルの系列を入力として、表を連続値ベクトルに符号化し、
学習部が、前記訓練データ集合に含まれる前記表形式データの各々について前記表符号化部が出力した連続値ベクトルと、前記訓練データ集合に含まれる前記正解ラベルとに基づいて、表形式データの表のキャプションを生成するための生成器を学習する
ことを特徴とする表キャプション生成器学習方法。 - セル符号化部が、セルの行列として記述された表形式データについて、表の各セルに対し、該セルに記載されたテキスト情報に含まれるトークンの系列を入力として、セルを連続値ベクトルに符号化し、
行符号化部が、前記表形式データについて、表の各行に対し、前記セル符号化部が出力した、該行に含まれるセルの連続値ベクトルの系列を入力として、行を連続値ベクトルに符号化し、
列符号化部が、前記表形式データについて、表の各列に対し、前記セル符号化部が出力した、該列に含まれるセルの連続値ベクトルの系列を入力として、列を連続値ベクトルに符号化し、
表符号化部が、前記表形式データについて、前記行符号化部および前記列符号化部が出力した各行及び各列の連続値ベクトルの系列を入力として、表を連続値ベクトルに符号化し、
表キャプション生成部が、前記表符号化部が出力した連続値ベクトルと、表形式データの表のキャプションを生成するための予め学習された生成器とに基づいて、前記表形式データの表のキャプションを生成する
ことを特徴とする表キャプション生成方法。 - 前記表キャプション生成部によって生成することでは、前記表符号化部が出力した連続値ベクトルと、表のキャプションの初期トークンとを入力として、前記生成器により、次のトークンを予測すると共に、前記連続値ベクトルを更新し、
前記更新された連続値ベクトルと、前記予測されたトークンとを入力として、前記生成器により、次のトークンを予測すると共に、前記連続値ベクトルを更新することを繰り返し、
前記予測されたトークンの系列を、前記表形式データの表のキャプションとして生成する請求項5記載の表キャプション生成方法。 - コンピュータを、請求項1に記載の表キャプション生成器学習装置、又は請求項2若しくは請求項3に記載の表キャプション生成装置の各部として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016182058A JP6611355B2 (ja) | 2016-09-16 | 2016-09-16 | 表キャプション生成器学習装置、表キャプション生成装置、方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016182058A JP6611355B2 (ja) | 2016-09-16 | 2016-09-16 | 表キャプション生成器学習装置、表キャプション生成装置、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018045625A true JP2018045625A (ja) | 2018-03-22 |
JP6611355B2 JP6611355B2 (ja) | 2019-11-27 |
Family
ID=61693222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016182058A Active JP6611355B2 (ja) | 2016-09-16 | 2016-09-16 | 表キャプション生成器学習装置、表キャプション生成装置、方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6611355B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004334369A (ja) * | 2003-05-01 | 2004-11-25 | Nippon Telegr & Teleph Corp <Ntt> | 音声対話シナリオ変換方法、音声対話シナリオ変換装置、音声対話シナリオ変換プログラム |
WO2018025706A1 (ja) * | 2016-08-05 | 2018-02-08 | 日本電気株式会社 | テーブル意味推定システム、方法およびプログラム |
-
2016
- 2016-09-16 JP JP2016182058A patent/JP6611355B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004334369A (ja) * | 2003-05-01 | 2004-11-25 | Nippon Telegr & Teleph Corp <Ntt> | 音声対話シナリオ変換方法、音声対話シナリオ変換装置、音声対話シナリオ変換プログラム |
WO2018025706A1 (ja) * | 2016-08-05 | 2018-02-08 | 日本電気株式会社 | テーブル意味推定システム、方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6611355B2 (ja) | 2019-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tallec et al. | Can recurrent neural networks warp time? | |
Nwankpa et al. | Activation functions: Comparison of trends in practice and research for deep learning | |
Tran et al. | Deep logic networks: Inserting and extracting knowledge from deep belief networks | |
CN109284506B (zh) | 一种基于注意力卷积神经网络的用户评论情感分析系统及方法 | |
CN106502985B (zh) | 一种用于生成标题的神经网络建模方法及装置 | |
CN110598779B (zh) | 摘要描述生成方法、装置、计算机设备和存储介质 | |
CN110929665B (zh) | 一种自然场景曲线文本检测方法 | |
Rani et al. | Deformed character recognition using convolutional neural networks | |
KR20180038937A (ko) | 시각 문답을 위한 시스템 및 방법 | |
CN111259666A (zh) | 一种结合多头自注意力机制的cnn文本分类方法 | |
WO2021196954A1 (zh) | 序列化数据处理方法和装置、文本处理方法和装置 | |
CN112699222B (zh) | 基于量子启发式神经网络的文本分类方法及邮件分类方法 | |
CN112819171B (zh) | 一种基于表函数的数据搜索方法、系统及计算机存储介质 | |
CN111831783B (zh) | 一种篇章级关系抽取方法 | |
CN112131886A (zh) | 一种文本的方面级别情感分析方法 | |
CN111354333A (zh) | 一种基于自注意力的汉语韵律层级预测方法及系统 | |
CN111400494A (zh) | 一种基于GCN-Attention的情感分析方法 | |
Luhman et al. | Diffusion models for handwriting generation | |
Wang et al. | A new delay connection for long short-term memory networks | |
JP2023007432A (ja) | コンテンツアウェアおよびスタイルアウェアデータを増強することによる筆跡認識方法および装置 | |
CN111782928A (zh) | 信息推送方法、装置和计算机可读存储介质 | |
JP6611355B2 (ja) | 表キャプション生成器学習装置、表キャプション生成装置、方法、及びプログラム | |
CN111161266A (zh) | 一种基于矢量量化的变分自编码机的多风格字体生成方法 | |
JP6517773B2 (ja) | 分類器学習装置、表種類分類装置、方法、及びプログラム | |
Ali et al. | High Accuracy Arabic Handwritten Characters Recognition Using Error Back Propagation Artificial Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6611355 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |