JP2022166126A - 文書処理モデルのトレーニング方法、装置、機器、記憶媒体及びプログラム - Google Patents
文書処理モデルのトレーニング方法、装置、機器、記憶媒体及びプログラム Download PDFInfo
- Publication number
- JP2022166126A JP2022166126A JP2022126270A JP2022126270A JP2022166126A JP 2022166126 A JP2022166126 A JP 2022166126A JP 2022126270 A JP2022126270 A JP 2022126270A JP 2022126270 A JP2022126270 A JP 2022126270A JP 2022166126 A JP2022166126 A JP 2022166126A
- Authority
- JP
- Japan
- Prior art keywords
- document
- training
- matrix
- attention
- types
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 222
- 238000012545 processing Methods 0.000 title claims abstract description 156
- 238000000034 method Methods 0.000 title claims abstract description 115
- 239000011159 matrix material Substances 0.000 claims description 166
- 230000008569 process Effects 0.000 claims description 66
- 230000006870 function Effects 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 9
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000003058 natural language processing Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 23
- 238000005516 engineering process Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000013507 mapping Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/414—Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/1444—Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Machine Translation (AREA)
- Image Analysis (AREA)
Abstract
Description
第1のサンプル文書を取得するステップと、
前記第1のサンプル文書に基づいて、前記第1のサンプル文書における複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置を決定するステップであって、ここで、前記文書要素は前記第1のサンプル文書における文字又は文書領域に対応し、前記Mは1以上の整数であるステップと、
前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置に基づいて、基礎モデルをトレーニングして、前記文書処理モデルを取得するステップとを含む。
第1のサンプル文書を取得するための第1の取得モジュールと、
前記第1のサンプル文書に基づいて、前記第1のサンプル文書における複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置を決定するための決定モジュールであって、ここで、前記文書要素は前記第1のサンプル文書における文字又は文書領域に対応し、前記Mは1以上の整数である決定モジュールと、
前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置に基づいて、基礎モデルをトレーニングして、前記文書処理モデルを取得するための第1のトレーニングモジュールとを含む。
少なくとも1つのプロセッサ、及び
前記少なくとも1つのプロセッサと通信可能に接続されたメモリを含み、ここで、
前記メモリには前記少なくとも1つのプロセッサにより実行できる命令が記憶され、前記命令は前記少なくとも1つのプロセッサにより実行されることにより、前記少なくとも1つのプロセッサは第1の態様に記載の方法を実行させることができる。
文書高さ方向位置タイプについて、
文書要素301の位置を0(y1-y1=0)と表現してもよい。
文書要素302の位置をy2-y1と表現してもよい。
文書要素303の位置をy3-y1と表現してもよい。
文書要素304の位置をy4-y1と表現してもよい。
文書要素301の位置を0(x1-x1=0)と表現してもよい。
文書要素302の位置をx2-x1と表現してもよい。
文書要素303の位置をx3-x1と表現してもよい。
文書要素304の位置をx4-x1と表現してもよい。
前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置を前記基礎モデルに入力するための入力ユニットと、
前記基礎モデルを介して、前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置に基づいて、各文書要素の注意力重みパラメータを決定するための第1の決定ユニットと、
前記複数の文書要素の要素特徴、及び各文書要素の注意力重みパラメータに基づいて、前記基礎モデルをトレーニングして、前記文書処理モデルを取得するためのトレーニングユニットとを含む。
前記複数の文書要素の要素特徴に対して第1の線形処理及び第2の線形処理を行い、それぞれ第1の特徴行列及び第2の特徴行列を取得するための第1の処理サブユニットと、
前記M種類の位置タイプにおける各位置タイプに対して、前記位置タイプに対応する各文書要素の位置に対して前記第1の線形処理及び前記第2の線形処理を行い、それぞれ前記位置タイプに対応する第1の位置行列及び第2の位置行列を取得するための第2の処理サブユニットと、
前記第1の特徴行列、前記第2の特徴行列、及び前記M種類の位置タイプそれぞれに対応する第1の位置行列及び第2の位置行列に基づいて、前記各文書要素の注意力重みパラメータを決定するための決定サブユニットとを含む。
前記第1の特徴行列及び前記第2の特徴行列に基づいて、第1の注意力行列を決定することと、
前記第1の特徴行列及び各位置タイプに対応する第2の位置行列に基づいて、当該位置タイプに対応する第2の注意力行列を決定することと、
前記第2の特徴行列及び各位置タイプに対応する第1の位置行列に基づいて、当該位置タイプに対応する第3の注意力行列を決定することと、
前記第1の注意力行列、及び前記M種類の位置タイプそれぞれに対応する第2の注意力行列及び第3の注意力行列に基づいて、前記各文書要素の注意力重みパラメータを決定することとに用いられる。
前記第1の注意力行列、及び前記M種類の位置タイプそれぞれに対応する第2の注意力行列と第3の注意力行列との和を、目標注意力行列として決定することと、
前記目標注意力行列に基づいて、前記各文書要素の注意力重みパラメータを決定することとに用いられる。
前記複数の文書要素の要素特徴に対して第3の線形処理を行い、第3の特徴行列を取得するための第3の処理サブユニットと、
前記第3の特徴行列及び前記各文書要素の注意力重みパラメータに基づいて、前記基礎モデルをトレーニングして、前記文書処理モデルを取得するためのトレーニングサブユニットとを含む。
N個のトレーニングタスクに基づいて、前記複数の文書要素において各トレーニングタスクに対応する目標文書要素をそれぞれ決定して、前記目標文書要素にスクランブリング処理を行うためのスクランブリング処理ユニットであって、前記Nは1以上の整数であるスクランブリング処理ユニットをさらに含む。
前記第3の特徴行列及び前記各文書要素の注意力重みパラメータに基づいて、各トレーニングタスクに対応する予測文書要素をそれぞれ決定することと、
前記N個のトレーニングタスクのそれぞれに対応する目標文書要素、及び前記N個のトレーニングタスクのそれぞれに対応する予測文書要素に基づいて、前記基礎モデルをトレーニングすることにより、前記文書処理モデルを取得することとに用いられる。
前記N個のトレーニングタスクにおける各トレーニングタスクについて、当該トレーニングタスクに対応する目標文書要素及び予測文書要素に基づいて、当該トレーニングタスクに対応する損失関数を決定することと、
前記N個のトレーニングタスクのそれぞれに対応する損失関数に基づいて、目標損失関数を決定することと、
前記目標損失関数に基づいて、前記基礎モデルのモデルパラメータを更新するすることにより、前記文書処理モデルを取得することとに用いられる。
前記第1のサンプル文書に対して文字認識処理を行い、前記K1個の文字の要素特徴及び各文字のM種類の位置タイプに対応する位置を取得するための第2の決定ユニットと、
前記第1のサンプル文書に対応する文書画像をK2個の文書領域に分割して、前記文書画像に特徴抽出を行い、前記K2個の文書領域の要素特徴及び各文書領域のM種類の位置タイプに対応する位置を取得するための第3の決定ユニットとを含む。
予め設定された文書タスクに対応するサンプルデータを取得するための第2の取得モジュールであって、前記サンプルデータは、第2のサンプル文書及び前記第2のサンプル文書に対応するラベルデータを含む第2の取得モジュールと、
前記文書処理モデルにより前記第2のサンプル文書を処理し、予測データを取得するための処理モジュールと、
前記予測データと前記ラベルデータとの間の差異に基づいて、前記文書処理モデルのパラメータを調整して、前記予め設定された文書タスクに対応するターゲットモデルを取得するための第2のトレーニングモジュールとをさらに含む。
Claims (25)
- 第1のサンプル文書を取得するステップと、
前記第1のサンプル文書に基づいて、前記第1のサンプル文書における複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置を決定するステップであって、ここで、前記文書要素は前記第1のサンプル文書における文字又は文書領域に対応し、前記Mは1以上の整数であるステップと、
前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置に基づいて、基礎モデルをトレーニングして、前記文書処理モデルを取得するステップとを含む、文書処理モデルのトレーニング方法。 - 前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置に基づいて、基礎モデルをトレーニングして、前記文書処理モデルを取得するステップは、
前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置を前記基礎モデルに入力するステップと、
前記基礎モデルを介して、前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置に基づいて、各文書要素の注意力重みパラメータを決定するステップと、
前記複数の文書要素の要素特徴、及び各文書要素の注意力重みパラメータに基づいて、前記基礎モデルをトレーニングして、前記文書処理モデルを取得するステップと、を含む、請求項1に記載の文書処理モデルのトレーニング方法。 - 複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置に基づいて、各文書要素の注意力重みパラメータを決定するステップは、
前記複数の文書要素の要素特徴に対して第1の線形処理及び第2の線形処理を行い、それぞれ第1の特徴行列及び第2の特徴行列を取得するステップと、
前記M種類の位置タイプにおける各位置タイプに対して、前記位置タイプに対応する各文書要素の位置に対して前記第1の線形処理及び前記第2の線形処理を行い、それぞれ前記位置タイプに対応する第1の位置行列及び第2の位置行列を取得するステップと、
前記第1の特徴行列、前記第2の特徴行列、及び前記M種類の位置タイプそれぞれに対応する第1の位置行列及び第2の位置行列に基づいて、前記各文書要素の注意力重みパラメータを決定するステップと、を含む、請求項2に記載の文書処理モデルのトレーニング方法。 - 前記第1の特徴行列、前記第2の特徴行列、及び前記M種類の位置タイプそれぞれに対応する第1の位置行列及び第2の位置行列に基づいて、前記各文書要素の注意力重みパラメータを決定するステップは、
前記第1の特徴行列及び前記第2の特徴行列に基づいて、第1の注意力行列を決定するステップと、
前記第1の特徴行列及び各位置タイプに対応する第2の位置行列に基づいて、当該位置タイプに対応する第2の注意力行列を決定するステップと、
前記第2の特徴行列及び各位置タイプに対応する第1の位置行列に基づいて、当該位置タイプに対応する第3の注意力行列を決定するステップと、
前記第1の注意力行列、及び前記M種類の位置タイプそれぞれに対応する第2の注意力行列及び第3の注意力行列に基づいて、前記各文書要素の注意力重みパラメータを決定するステップと、を含む、請求項3に記載の文書処理モデルのトレーニング方法。 - 前記第1の注意力行列、及び前記M種類の位置タイプそれぞれに対応する第2の注意力行列及び第3の注意力行列に基づいて、前記各文書要素の注意力重みパラメータを決定するステップは、
前記第1の注意力行列、及び前記M種類の位置タイプそれぞれに対応する第2の注意力行列と第3の注意力行列との和を、目標注意力行列として決定するステップと、
前記目標注意力行列に基づいて、前記各文書要素の注意力重みパラメータを決定するステップとを含む、請求項4に記載の文書処理モデルのトレーニング方法。 - 前記複数の文書要素の要素特徴、及び各文書要素の注意力重みパラメータに基づいて、前記基礎モデルをトレーニングして、前記文書処理モデルを取得するステップは、
前記複数の文書要素の要素特徴に対して第3の線形処理を行い、第3の特徴行列を取得するステップと、
前記第3の特徴行列及び前記各文書要素の注意力重みパラメータに基づいて、前記基礎モデルをトレーニングして、前記文書処理モデルを取得するステップとを含む、請求項2~請求項5のいずれか一項に記載の文書処理モデルのトレーニング方法。 - 前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置を前記基礎モデルに入力するステップの前に、
N個のトレーニングタスクに基づいて、前記複数の文書要素において各トレーニングタスクに対応する目標文書要素をそれぞれ決定して、前記目標文書要素にスクランブリング処理を行うステップであって、前記Nは1以上の整数であるステップをさらに含み、
前記第3の特徴行列及び各文書要素の注意力重みパラメータに基づいて、前記基礎モデルをトレーニングして、前記文書処理モデルを取得するステップは、
前記第3の特徴行列及び前記各文書要素の注意力重みパラメータに基づいて、各トレーニングタスクに対応する予測文書要素をそれぞれ決定するステップと、
前記N個のトレーニングタスクのそれぞれに対応する目標文書要素、及び前記N個のトレーニングタスクのそれぞれに対応する予測文書要素に基づいて、前記基礎モデルをトレーニングすることにより、前記文書処理モデルを取得するステップと、を含む、請求項6に記載の文書処理モデルのトレーニング方法。 - 前記N個のトレーニングタスクのそれぞれに対応する目標文書要素、及び前記N個のトレーニングタスクのそれぞれに対応する予測文書要素に基づいて、前記基礎モデルをトレーニングすることにより、前記文書処理モデルを取得するステップは、
前記N個のトレーニングタスクにおける各トレーニングタスクについて、当該トレーニングタスクに対応する目標文書要素及び予測文書要素に基づいて、当該トレーニングタスクに対応する損失関数を決定するステップと、
前記N個のトレーニングタスクのそれぞれに対応する損失関数に基づいて、目標損失関数を決定するステップと、
前記目標損失関数に基づいて、前記基礎モデルのモデルパラメータを更新するすることにより、前記文書処理モデルを取得するステップと、を含む、請求項7に記載の文書処理モデルのトレーニング方法。 - 前記複数の文書要素はK1個の文字及びK2個の文書領域を含み、前記K1及び前記K2はいずれも0以上の整数であり、前記第1のサンプル文書に基づいて、前記第1のサンプル文書における複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置を決定するステップは、
前記第1のサンプル文書に対して文字認識処理を行い、前記K1個の文字の要素特徴及び各文字のM種類の位置タイプに対応する位置を取得するステップと、
前記第1のサンプル文書に対応する文書画像をK2個の文書領域に分割して、前記文書画像に特徴抽出を行い、前記K2個の文書領域の要素特徴及び各文書領域のM種類の位置タイプに対応する位置を取得するステップとを含む、請求項1~請求項5のいずれか一項に記載の文書処理モデルのトレーニング方法。 - 前記文書処理モデルを取得するステップの後に、
予め設定された文書タスクに対応するサンプルデータを取得するステップであって、前記サンプルデータは、第2のサンプル文書及び前記第2のサンプル文書に対応するラベルデータを含むステップと、
前記文書処理モデルにより前記第2のサンプル文書を処理し、予測データを取得するステップと、
前記予測データと前記ラベルデータとの間の差異に基づいて、前記文書処理モデルのパラメータを調整して、前記予め設定された文書タスクに対応するターゲットモデルを取得するステップとをさらに含む、請求項1~請求項5のいずれか一項に記載の文書処理モデルのトレーニング方法。 - 前記M種類の位置タイプは、
1次元位置タイプ、文書幅方向位置タイプ、文書高さ方向位置タイプのうちの1つの種類又は複数の種類を含み、
前記文書要素の1次元位置タイプに対応する位置は、当該文書要素の前記複数の文書要素における配列位置を指示するために用いられ、
前記文書要素の文書幅方向位置タイプに対応する位置は、当該文書要素の文書幅方向での座標と第1のプリセット基準座標との間のずれ量を指示するために用いられ、
前記文書要素の文書高さ方向位置タイプに対応する位置は、当該文書要素の文書高さ方向での座標と第2のプリセット基準座標との間のずれ量を指示するために用いられる、請求項1~請求項5のいずれか一項に記載の文書処理モデルのトレーニング方法。 - 第1のサンプル文書を取得するための第1の取得モジュールと、
前記第1のサンプル文書に基づいて、前記第1のサンプル文書における複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置を決定するための決定モジュールであって、ここで、前記文書要素は前記第1のサンプル文書における文字又は文書領域に対応し、前記Mは1以上の整数である決定モジュールと、
前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置に基づいて、基礎モデルをトレーニングして、前記文書処理モデルを取得するための第1のトレーニングモジュールと、を含む、文書処理モデルのトレーニング装置。 - 前記第1のトレーニングモジュールは、
前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置を前記基礎モデルに入力するための入力ユニットと、
前記基礎モデルを介して、前記複数の文書要素の要素特徴、及び各文書要素のM種類の位置タイプに対応する位置に基づいて、各文書要素の注意力重みパラメータを決定するための第1の決定ユニットと、
前記複数の文書要素の要素特徴、及び各文書要素の注意力重みパラメータに基づいて、前記基礎モデルをトレーニングして、前記文書処理モデルを取得するためのトレーニングユニットとを含む、請求項12に記載の文書処理モデルのトレーニング装置。 - 前記第1の決定ユニットは、
前記複数の文書要素の要素特徴に対して第1の線形処理及び第2の線形処理を行い、それぞれ第1の特徴行列及び第2の特徴行列を取得するための第1の処理サブユニットと、
前記M種類の位置タイプにおける各位置タイプに対して、前記位置タイプに対応する各文書要素の位置に対して前記第1の線形処理及び前記第2の線形処理を行い、それぞれ前記位置タイプに対応する第1の位置行列及び第2の位置行列を取得するための第2の処理サブユニットと、
前記第1の特徴行列、前記第2の特徴行列、及び前記M種類の位置タイプそれぞれに対応する第1の位置行列及び第2の位置行列に基づいて、前記各文書要素の注意力重みパラメータを決定するための決定サブユニットとを含む、請求項13に記載の文書処理モデルのトレーニング装置。 - 前記決定サブユニットは具体的に、
前記第1の特徴行列及び前記第2の特徴行列に基づいて、第1の注意力行列を決定することと、
前記第1の特徴行列及び各位置タイプに対応する第2の位置行列に基づいて、当該位置タイプに対応する第2の注意力行列を決定することと、
前記第2の特徴行列及び各位置タイプに対応する第1の位置行列に基づいて、当該位置タイプに対応する第3の注意力行列を決定することと、
前記第1の注意力行列、及び前記M種類の位置タイプそれぞれに対応する第2の注意力行列及び第3の注意力行列に基づいて、前記各文書要素の注意力重みパラメータを決定することとに用いられる、請求項14に記載の文書処理モデルのトレーニング装置。 - 前記決定サブユニットは具体的に、
前記第1の注意力行列、及び前記M種類の位置タイプそれぞれに対応する第2の注意力行列と第3の注意力行列との和を、目標注意力行列として決定することと、
前記目標注意力行列に基づいて、前記各文書要素の注意力重みパラメータを決定することとに用いられる、請求項15に記載の文書処理モデルのトレーニング装置。 - 前記トレーニングユニットは、
前記複数の文書要素の要素特徴に対して第3の線形処理を行い、第3の特徴行列を取得するための第3の処理サブユニットと、
前記第3の特徴行列及び前記各文書要素の注意力重みパラメータに基づいて、前記基礎モデルをトレーニングして、前記文書処理モデルを取得するためのトレーニングサブユニットと、を含む、請求項13~請求項16のいずれか一項に記載の文書処理モデルのトレーニング装置。 - 前記第1のトレーニングモジュールは、
N個のトレーニングタスクに基づいて、前記複数の文書要素において各トレーニングタスクに対応する目標文書要素をそれぞれ決定して、前記目標文書要素にスクランブリング処理を行うためのスクランブリング処理ユニットであって、前記Nは1以上の整数であるスクランブリング処理ユニットをさらに含み、
前記トレーニングサブユニットは具体的に、
前記第3の特徴行列及び前記各文書要素の注意力重みパラメータに基づいて、各トレーニングタスクに対応する予測文書要素をそれぞれ決定することと、
前記N個のトレーニングタスクのそれぞれに対応する目標文書要素、及び前記N個のトレーニングタスクのそれぞれに対応する予測文書要素に基づいて、前記基礎モデルをトレーニングすることにより、前記文書処理モデルを取得することと、に用いられる、請求項17に記載の文書処理モデルのトレーニング装置。 - 前記トレーニングサブユニットは具体的に、
前記N個のトレーニングタスクにおける各トレーニングタスクについて、当該トレーニングタスクに対応する目標文書要素及び予測文書要素に基づいて、当該トレーニングタスクに対応する損失関数を決定することと、
前記N個のトレーニングタスクのそれぞれに対応する損失関数に基づいて、目標損失関数を決定することと、
前記目標損失関数に基づいて、前記基礎モデルのモデルパラメータを更新するすることにより、前記文書処理モデルを取得することと、に用いられる、請求項18に記載の文書処理モデルのトレーニング装置。 - 前記複数の文書要素はK1個の文字及びK2個の文書領域を含み、前記K1及び前記K2はいずれも0以上の整数であり、前記決定モジュールは、
前記第1のサンプル文書に対して文字認識処理を行い、前記K1個の文字の要素特徴及び各文字のM種類の位置タイプに対応する位置を取得するための第2の決定ユニットと、
前記第1のサンプル文書に対応する文書画像をK2個の文書領域に分割して、前記文書画像に特徴抽出を行い、前記K2個の文書領域の要素特徴及び各文書領域のM種類の位置タイプに対応する位置を取得するための第3の決定ユニットと、を含む、請求項12~請求項16のいずれか一項に記載の文書処理モデルのトレーニング装置。 - 予め設定された文書タスクに対応するサンプルデータを取得するための第2の取得モジュールであって、前記サンプルデータは、第2のサンプル文書及び前記第2のサンプル文書に対応するラベルデータを含む第2の取得モジュールと、
前記文書処理モデルにより前記第2のサンプル文書を処理し、予測データを取得するための処理モジュールと、
前記予測データと前記ラベルデータとの間の差異に基づいて、前記文書処理モデルのパラメータを調整して、前記予め設定された文書タスクに対応するターゲットモデルを取得するための第2のトレーニングモジュールとをさらに含む、請求項12~請求項16のいずれか一項に記載の文書処理モデルのトレーニング装置。 - 前記M種類の位置タイプは、
1次元位置タイプ、文書幅方向位置タイプ、文書高さ方向位置タイプのうちの1つの種類又は複数の種類を含み、
前記文書要素の1次元位置タイプに対応する位置は、当該文書要素の前記複数の文書要素における配列位置を指示するために用いられ、
前記文書要素の文書幅方向位置タイプに対応する位置は、当該文書要素の文書幅方向での座標と第1のプリセット基準座標との間のずれ量を指示するために用いられ、
前記文書要素の文書高さ方向位置タイプに対応する位置は、当該文書要素の文書高さ方向での座標と第2のプリセット基準座標との間のずれ量を指示するために用いられる、請求項12~請求項16のいずれか一項に記載の文書処理モデルのトレーニング装置。 - 少なくとも1つのプロセッサ、及び
前記少なくとも1つのプロセッサと通信可能に接続されたメモリを含み、
前記メモリには前記少なくとも1つのプロセッサにより実行できる命令が記憶され、前記命令は前記少なくとも1つのプロセッサにより実行されることにより、前記少なくとも1つのプロセッサは請求項1~5のいずれか一項に記載の方法を実行することができる、
電子機器。 - コンピュータ命令が記憶された非一時的なコンピュータ可読媒体であって、前記コンピュータ命令はコンピュータに請求項1~5のいずれか一項に記載の方法を実行させるために用いられる、
非一時的なコンピュータ可読媒体。 - プロセッサによって実行されるとき請求項1~5のいずれか一項に記載の方法のステップが実現される、
コンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210236324.XA CN114661904B (zh) | 2022-03-10 | 2022-03-10 | 文档处理模型的训练方法、装置、设备、存储介质及程序 |
CN202210236324.X | 2022-03-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022166126A true JP2022166126A (ja) | 2022-11-01 |
JP7390442B2 JP7390442B2 (ja) | 2023-12-01 |
Family
ID=82030212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022126270A Active JP7390442B2 (ja) | 2022-03-10 | 2022-08-08 | 文書処理モデルのトレーニング方法、装置、機器、記憶媒体及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220382991A1 (ja) |
JP (1) | JP7390442B2 (ja) |
CN (1) | CN114661904B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115984856A (zh) * | 2022-12-05 | 2023-04-18 | 百度(中国)有限公司 | 文档图像矫正模型的训练方法、文档图像的矫正方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020184157A (ja) * | 2019-05-07 | 2020-11-12 | 株式会社東芝 | 文書解析装置、学習装置、文書解析方法および学習方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7756869B2 (en) * | 2004-04-30 | 2010-07-13 | The Boeing Company | Methods and apparatus for extracting referential keys from a document |
JP5167821B2 (ja) * | 2008-01-11 | 2013-03-21 | 株式会社リコー | 文書検索装置、文書検索方法及び文書検索プログラム |
US11195006B2 (en) * | 2018-12-06 | 2021-12-07 | International Business Machines Corporation | Multi-modal document feature extraction |
CN109710907A (zh) * | 2018-12-20 | 2019-05-03 | 平安科技(深圳)有限公司 | 一种电子文档的生成方法及设备 |
CN112446398B (zh) * | 2019-09-02 | 2024-09-10 | 华为技术有限公司 | 图像分类方法以及装置 |
CN111046784B (zh) * | 2019-12-09 | 2024-02-20 | 科大讯飞股份有限公司 | 文档版面分析识别方法、装置、电子设备和存储介质 |
CN111626941A (zh) * | 2020-05-11 | 2020-09-04 | 东莞市七宝树教育科技有限公司 | 一种基于深度学习语义分割的文档矫正方法 |
CN111832403B (zh) * | 2020-06-04 | 2024-07-26 | 北京百度网讯科技有限公司 | 文档结构识别方法、文档结构识别的模型训练方法和装置 |
US11335111B2 (en) * | 2020-07-06 | 2022-05-17 | International Business Machines Corporation | Optical character recognition (OCR) induction for multi-page changes |
CN112016543B (zh) * | 2020-07-24 | 2024-09-20 | 华为技术有限公司 | 一种文本识别网络、神经网络训练的方法以及相关设备 |
CN111914551B (zh) * | 2020-07-29 | 2022-05-20 | 北京字节跳动网络技术有限公司 | 自然语言处理方法、装置、电子设备及存储介质 |
RU2760471C1 (ru) * | 2020-12-17 | 2021-11-25 | АБИ Девелопмент Инк. | Способы и системы идентификации полей в документе |
CN112507101B (zh) * | 2020-12-18 | 2024-04-05 | 北京百度网讯科技有限公司 | 一种建立预训练语言模型的方法和装置 |
CN112966676B (zh) * | 2021-02-04 | 2023-10-20 | 北京易道博识科技有限公司 | 一种基于零样本学习的文档关键信息抽取方法 |
CN113313066A (zh) * | 2021-06-23 | 2021-08-27 | Oppo广东移动通信有限公司 | 图像识别方法、装置、存储介质以及终端 |
CN113553428B (zh) * | 2021-06-30 | 2024-04-23 | 北京百度网讯科技有限公司 | 文档分类方法、装置及电子设备 |
CN113705187B (zh) * | 2021-08-13 | 2023-08-01 | 北京百度网讯科技有限公司 | 预训练语言模型的生成方法、装置、电子设备和存储介质 |
CN113792659B (zh) * | 2021-09-15 | 2024-04-05 | 上海金仕达软件科技股份有限公司 | 文档识别方法、装置及电子设备 |
CN113836268A (zh) * | 2021-09-24 | 2021-12-24 | 北京百度网讯科技有限公司 | 文档理解方法及装置、电子设备和介质 |
CN113901954A (zh) * | 2021-11-17 | 2022-01-07 | 上海高德威智能交通系统有限公司 | 一种文档版面的识别方法、装置、电子设备及存储介质 |
-
2022
- 2022-03-10 CN CN202210236324.XA patent/CN114661904B/zh active Active
- 2022-08-08 JP JP2022126270A patent/JP7390442B2/ja active Active
- 2022-08-09 US US17/883,908 patent/US20220382991A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020184157A (ja) * | 2019-05-07 | 2020-11-12 | 株式会社東芝 | 文書解析装置、学習装置、文書解析方法および学習方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7390442B2 (ja) | 2023-12-01 |
US20220382991A1 (en) | 2022-12-01 |
CN114661904B (zh) | 2023-04-07 |
CN114661904A (zh) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112966522B (zh) | 一种图像分类方法、装置、电子设备及存储介质 | |
CN110569846A (zh) | 图像文字识别方法、装置、设备及存储介质 | |
JP7331975B2 (ja) | クロスモーダル検索モデルのトレーニング方法、装置、機器、および記憶媒体 | |
KR20220005416A (ko) | 다항 관계 생성 모델의 트레이닝 방법, 장치, 전자 기기 및 매체 | |
CN114155543A (zh) | 神经网络训练方法、文档图像理解方法、装置和设备 | |
JP7430820B2 (ja) | ソートモデルのトレーニング方法及び装置、電子機器、コンピュータ可読記憶媒体、コンピュータプログラム | |
US11861919B2 (en) | Text recognition method and device, and electronic device | |
JP7295189B2 (ja) | ドキュメントコンテンツの抽出方法、装置、電子機器及び記憶媒体 | |
JP7300034B2 (ja) | テーブル生成方法、装置、電子機器、記憶媒体及びプログラム | |
CN111078842A (zh) | 查询结果的确定方法、装置、服务器及存储介质 | |
US20220374678A1 (en) | Method for determining pre-training model, electronic device and storage medium | |
US11281928B1 (en) | Querying semantic data from unstructured documents | |
CN113656613A (zh) | 训练图文检索模型的方法、多模态图像检索方法及装置 | |
JP2023547010A (ja) | 知識の蒸留に基づくモデルトレーニング方法、装置、電子機器 | |
US20210342379A1 (en) | Method and device for processing sentence, and storage medium | |
JP2022169743A (ja) | 情報抽出方法、装置、電子機器及び記憶媒体 | |
US20230114673A1 (en) | Method for recognizing token, electronic device and storage medium | |
CN115640520B (zh) | 跨语言跨模态模型的预训练方法、设备和存储介质 | |
CN110852066B (zh) | 一种基于对抗训练机制的多语言实体关系抽取方法及系统 | |
JP7390442B2 (ja) | 文書処理モデルのトレーニング方法、装置、機器、記憶媒体及びプログラム | |
CN113360683A (zh) | 训练跨模态检索模型的方法以及跨模态检索方法和装置 | |
CN116089586B (zh) | 基于文本的问题生成方法及问题生成模型的训练方法 | |
CN114419327B (zh) | 图像检测方法和图像检测模型的训练方法、装置 | |
CN113361522B (zh) | 用于确定字符序列的方法、装置和电子设备 | |
CN115577106A (zh) | 基于人工智能的文本分类方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230808 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7390442 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |