CN112329669B - 一种电子档案管理方法 - Google Patents

一种电子档案管理方法 Download PDF

Info

Publication number
CN112329669B
CN112329669B CN202011254598.9A CN202011254598A CN112329669B CN 112329669 B CN112329669 B CN 112329669B CN 202011254598 A CN202011254598 A CN 202011254598A CN 112329669 B CN112329669 B CN 112329669B
Authority
CN
China
Prior art keywords
keywords
candidate
document image
keyword
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011254598.9A
Other languages
English (en)
Other versions
CN112329669A (zh
Inventor
孙立业
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Heilongjiang Electric Power Co Ltd Electric Power Research Institute
State Grid Corp of China SGCC
Original Assignee
State Grid Heilongjiang Electric Power Co Ltd Electric Power Research Institute
State Grid Corp of China SGCC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Heilongjiang Electric Power Co Ltd Electric Power Research Institute, State Grid Corp of China SGCC filed Critical State Grid Heilongjiang Electric Power Co Ltd Electric Power Research Institute
Priority to CN202011254598.9A priority Critical patent/CN112329669B/zh
Publication of CN112329669A publication Critical patent/CN112329669A/zh
Application granted granted Critical
Publication of CN112329669B publication Critical patent/CN112329669B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Character Input (AREA)

Abstract

一种电子档案管理方法,涉及档案管理技术领域,针对现有技术中采用人工的方式将纸质档案的扫面件进行存储的时候存在分类效率低、准确性差的问题,包括以下步骤:步骤一:将待识别文档图像进行预处理;步骤二:对预处理后的待识别文档图像进行切割,得到包含文字的子图;步骤三:将包含文字的子图与标准文字进行匹配,得到候选文本;步骤四:将候选文本进行关键词识别,得到关键词;步骤五:根据关键词得到待识别文档图像的分类,并在待识别文档图像上标记分类信息。采用本发明可以有效的将扫描的图像进行识别,并进行分类存储及管理,识别及存储效率高、准确率高。

Description

一种电子档案管理方法
技术领域
本发明涉及档案管理技术领域,具体为一种电子档案存储管理方法
背景技术
在现代企事业单位中,利用计算机办公已成为一种常态,而在计算机办公过程中会产生大量的电子档案,而电子档案的损坏或丢失可能会对企事业单位造成一定的损失,因此,对电子档案的妥善管理已成为企业管理中必不可少的部分。
现有企业可能会出现要将纸质档案的扫描件作为电子档案进行存储,一般的企业通常采用人工的方式对纸质档案的扫面件进行阅读后根据内容进行档案的分类,这种方式速度慢、效率低,并且准确性差。
发明内容
本发明的目的是:针对现有技术中采用人工的方式将纸质档案的扫面件进行存储的时候存在分类效率低、准确性差的问题,提出一种电子档案存储管理方法。
本发明为了解决上述技术问题采取的技术方案是:
一种电子档案管理方法,包括以下步骤:
步骤一:将待识别文档图像进行预处理;
步骤二:对预处理后的待识别文档图像进行切割,得到包含文字的子图;
步骤三:将包含文字的子图与标准文字进行匹配,得到候选文本;
步骤四:将候选文本进行关键词识别,得到关键词;
步骤五:根据关键词得到待识别文档图像的分类,并在待识别文档图像上标记分类信息。
进一步的,所述预处理为:降噪及二值化处理。
进一步的,所述步骤四的具体步骤为:
步骤四一:将训练文本的关键词及训练文本中关键词所对应的有效特征进行标记,所述有效特征为关键词具有区分功能的特征,并将训练文本中关键词及有效特征作为训练集;
步骤四二:利用训练集训练神经网络;
步骤四三:将候选文本输入训练好的神经网络得到关键词。
进一步的,所述步骤四三的具体步骤为:
步骤四三一:若训练好的神经网络输出的关键词为单个,则直接输出该关键词,若训练好的神经网络输出的关键词为多个,则执行步骤四三二;
步骤四三二:建立共现特征集,所述共现特征集包括候选关键词及每个候选关键词对应的多个候选有效特征;
步骤四三三:将训练好的神经网络输出的多个关键词所对应的有效特征分别与共现特征集中的候选关键词所对应的多个候选有效特征进行匹配,若训练好的神经网络输出的多个关键词所对应的有效特征与同一个候选关键词所对应的多个候选有效特征匹配,则将该候选关键词最为最终关键词,若训练好的神经网络输出的多个关键词所对应的有效特征未与同一个候选关键词所对应的多个候选有效特征匹配,则选择有效特征对应次数最多的候选有效特征所对应的候选关键词作为最终关键词。
进一步的,所述步骤二对预处理后的待识别文档图像进行切割利用Cornernet网络进行。
进一步的,所述步骤二对预处理后的待识别文档图像进行切割的具体步骤为:
步骤二一:利用coco模型参数对Cornernet网络参数初始化;
步骤二二:利用初始化后的Cornernet网络,将预处理后的待识别文档图像输入到Hourglass中得到两张热力图,每张热力图的通道数为C,针对每张热力图中每个角点进行预测,并保留预测值大于0.7的角点;
步骤二三:对热力图上保留的每个角点进行编码,得到每个角点的编码向量,之后计算任意两个角点的编码向量间的距离,角点编码向量距离最小的两个角点即为相似度最大的两个角点,并将相似度最大的两个角点作为目标的左上和右下角点,然后根据目标的左上和右下角点生成目标框;
步骤二四:将目标框中内容与标准文字进行匹配,匹配值大于阈值的保留,匹配值小于阈值的删除;
步骤二五:将保留下的目标框进行拼接,得到包含文字的子图。
进一步的,所述Cornernet网络的损失函数为:
L=Ldet+αLpull+βLpush+γLoff
Ldet为角点损失,Lpull、Lpush为编码损失,Loff为offset损失,且α取值0.1,β取值为0.1,γ取值为1。
进一步的,所述对每张热力图中每个角点进行预测的损失函数为:
Figure BDA0002772697550000031
式中pij表示预测的heatmap在第C个通道的(i,j)位置的值,ycij表示对应位置的标记框,N表示目标的数量,α表示难易分类样本的损失权重;β表示参数。
进一步的,所述编码的损失函数为:
Figure BDA0002772697550000032
Figure BDA0002772697550000033
etk表示属于k类目标的左上角点的编码向量,ebk表示属于k类目标的右下角点的编码向量,ek表示etk和ebk的均值。
本发明的有益效果是:采用本发明可以有效的将扫描的图像进行识别,并进行分类存储及管理,识别及存储效率高、准确率高。
附图说明
图1为本发明的整体流程图;
图2为本发明Cornernet网络结构图。
具体实施方式
具体实施方式一:参照图1具体说明本实施方式,本实施方式所述的一种电子档案管理方法,包括以下步骤:
步骤一:将待识别文档图像进行预处理;
步骤二:对预处理后的待识别文档图像进行切割,得到包含文字的子图;
步骤三:将包含文字的子图与标准文字进行匹配,得到候选文本;
步骤四:将候选文本进行关键词识别,得到关键词;
步骤五:根据关键词得到待识别文档图像的分类,并在待识别文档图像上标记分类信息。
本申请首先将扫描的电子文档文件进行预处理,预处理的作用是清除干扰,然后将包含文字的图像切割出来,减少工作量,之后对文本中的文字进行提取,提取其中的关键字,根据关键字与分类类别中的关键字进行匹配,从而进行电子文档的分类。
具体实施方式二:本实施方式是对具体实施方式一所述的作进一步说明,本实施方式与具体实施方式一的区别是所述预处理为:降噪及二值化处理。
具体实施方式三:本实施方式是对具体实施方式一所述的作进一步说明,本实施方式与具体实施方式一的区别是所述步骤四的具体步骤为:
步骤四一:将训练文本的关键词及训练文本中关键词所对应的有效特征进行标记,所述有效特征为关键词具有区分功能的特征,并将训练文本中关键词及有效特征作为训练集;
步骤四二:利用训练集训练神经网络;
步骤四三:将候选文本输入训练好的神经网络得到关键词。
具体实施方式四:本实施方式是对具体实施方式三所述的作进一步说明,本实施方式与具体实施方式三的区别是所述步骤四三的具体步骤为:
步骤四三一:若训练好的神经网络输出的关键词为单个,则直接输出该关键词,若训练好的神经网络输出的关键词为多个,则执行步骤四三二;
步骤四三二:建立共现特征集,所述共现特征集包括候选关键词及每个候选关键词对应的多个候选有效特征;
步骤四三三:将训练好的神经网络输出的多个关键词所对应的有效特征分别与共现特征集中的候选关键词所对应的多个候选有效特征进行匹配,若训练好的神经网络输出的多个关键词所对应的有效特征与同一个候选关键词所对应的多个候选有效特征匹配,则将该候选关键词最为最终关键词,若训练好的神经网络输出的多个关键词所对应的有效特征未与同一个候选关键词所对应的多个候选有效特征匹配,则选择有效特征对应次数最多的候选有效特征所对应的候选关键词作为最终关键词。
具体实施方式五:本实施方式是对具体实施方式一所述的作进一步说明,本实施方式与具体实施方式一的区别是所述步骤二对预处理后的待识别文档图像进行切割利用Cornernet网络进行。
具体实施方式六:本实施方式是对具体实施方式五所述的作进一步说明,本实施方式与具体实施方式五的区别是所述Cornernet网络的损失函数为:
L=Ldet+αLpull+βLpush+γLoff
Ldet为角点损失,Lpull、Lpush为编码损失,Loff为offset损失,且α取值0.1,β取值为0.1,γ取值为1。
具体实施方式七:本实施方式是对具体实施方式六所述的作进一步说明,本实施方式与具体实施方式六的区别是所述步骤二对预处理后的待识别文档图像进行切割的具体步骤为:
步骤二一:利用coco模型参数对Cornernet网络参数初始化(结构如图2所示);
步骤二二:利用初始化后的Cornernet网络,将预处理后的待识别文档图像输入到Hourglass中得到两张热力图,每张热力图的通道数为C,针对每张热力图中每个角点进行预测,并保留预测值大于0.7的角点;
步骤二三:对热力图上保留的每个角点进行编码,得到每个角点的编码向量,之后计算任意两个角点的编码向量间的距离,角点编码向量距离最小的两个角点即为相似度最大的两个角点,并将相似度最大的两个角点作为目标的左上和右下角点,然后根据目标的左上和右下角点生成目标框;
步骤二四:将目标框中内容与标准文字进行匹配,匹配值大于阈值的保留,匹配值小于阈值的删除;
步骤二五:将保留下的目标框进行拼接,得到包含文字的子图。
多目标检测
1)、利用coco模型参数对Cornernet网络参数初始化。
2)、将图像输入到Hourglass网络中得到两张heatmaps,一张用于左上角点的预测,一张用于右下角点预检测,每张heatmap的通道数为C,C是检测类别数,每个点的预测值为0到1,表示该点是角点的分数。
3)、对输入特征图上的每个点进行编码,得到的编码向量即为Embeddings,表示该点的位置信息,网络为每个检测到的角点预测一个Embedding vector,对于相同的物体左上角点和右下角点计算Embedding vector的距离很小,即同一物体的角点对应的Embeddings具有较高的相似度,对于不同物体的角点,对应的Embeddings具有较大的距离,较小的相似度。
4)、依据Embeddings计算的结果,同一个物体的角点组成文字的目标框。
具体实施方式八:本实施方式是对具体实施方式七所述的作进一步说明,本实施方式与具体实施方式七的区别是所述对每张热力图中每个角点进行预测的损失函数为:
Figure BDA0002772697550000051
式中pij表示预测的heatmap在第C个通道的(i,j)位置的值,ycij表示对应位置的标记框,N表示目标的数量,α表示难易分类样本的损失权重;β表示参数。
角点预测的损失函数采用对focal loss损失函数进行改进,定义如下:
pij表示预测的heatmap在第C个通道的(i,j)位置的值,ycij表示对应位置的标记框,N表示目标的数量,α表示难易分类样本的损失权重;ycij等于其他值时表示(i,j)点不是类别c的目标角点,基于标记框角点的高斯分布计算得到,因此距离标记框比较近的(i,j)点的ycij值接近1,该部分通过β参数控制权重,因为靠近标记框的误检角点组成的预测框仍会和ground truth有较大的重叠面积。
具体实施方式九:本实施方式是对具体实施方式七所述的作进一步说明,本实施方式与具体实施方式七的区别是所述编码的损失函数为:
Figure BDA0002772697550000061
Figure BDA0002772697550000062
etk表示属于k类目标的左上角点的编码向量,ebk表示属于k类目标的右下角点的编码向量,ek表示etk和ebk的均值。
需要注意的是,具体实施方式仅仅是对本发明技术方案的解释和说明,不能以此限定权利保护范围。凡根据本发明权利要求书和说明书所做的仅仅是局部改变的,仍应落入本发明的保护范围内。

Claims (7)

1.一种电子档案管理方法,包括以下步骤:
步骤一:将待识别文档图像进行预处理;
步骤二:对预处理后的待识别文档图像进行切割,得到包含文字的子图;
步骤三:将包含文字的子图与标准文字进行匹配,得到候选文本;
步骤四:将候选文本进行关键词识别,得到关键词;
步骤五:根据关键词得到待识别文档图像的分类,并在待识别文档图像上标记分类信息;
其特征在于所述步骤四的具体步骤为:
步骤四一:将训练文本的关键词及训练文本中关键词所对应的有效特征进行标记,所述有效特征为关键词具有区分功能的特征,并将训练文本中关键词及有效特征作为训练集;
步骤四二:利用训练集训练神经网络;
步骤四三:将候选文本输入训练好的神经网络得到关键词;
所述步骤四三的具体步骤为:
步骤四三一:若训练好的神经网络输出的关键词为单个,则直接输出该关键词,若训练好的神经网络输出的关键词为多个,则执行步骤四三二;
步骤四三二:建立共现特征集,所述共现特征集包括候选关键词及每个候选关键词对应的多个候选有效特征;
步骤四三三:将训练好的神经网络输出的多个关键词所对应的有效特征分别与共现特征集中的候选关键词所对应的多个候选有效特征进行匹配,若训练好的神经网络输出的多个关键词所对应的有效特征与同一个候选关键词所对应的多个候选有效特征匹配,则将该候选关键词最为最终关键词,若训练好的神经网络输出的多个关键词所对应的有效特征未与同一个候选关键词所对应的多个候选有效特征匹配,则选择有效特征对应次数最多的候选有效特征所对应的候选关键词作为最终关键词。
2.根据权利要求1所述的一种电子档案管理方法,其特征在于所述预处理为:降噪及二值化处理。
3.根据权利要求1所述的一种电子档案管理方法,其特征在于所述步骤二对预处理后的待识别文档图像进行切割利用Cornernet网络进行。
4.根据权利要求3所述的一种电子档案管理方法,其特征在于所述步骤二对预处理后的待识别文档图像进行切割的具体步骤为:
步骤二一:利用coco模型参数对Cornernet网络参数初始化;
步骤二二:利用初始化后的Cornernet网络,将预处理后的待识别文档图像输入到Hourglass中得到两张热力图,每张热力图的通道数为C,针对每张热力图中每个角点进行预测,并保留预测值大于0.7的角点;
步骤二三:对热力图上保留的每个角点进行编码,得到每个角点的编码向量,之后计算任意两个角点的编码向量间的距离,角点编码向量距离最小的两个角点即为相似度最大的两个角点,并将相似度最大的两个角点作为目标的左上和右下角点,然后根据目标的左上和右下角点生成目标框;
步骤二四:将目标框中内容与标准文字进行匹配,匹配值大于阈值的保留,匹配值小于阈值的删除;
步骤二五:将保留下的目标框进行拼接,得到包含文字的子图。
5.根据权利要求4所述的一种电子档案管理方法,其特征在于所述Cornernet网络的损失函数为:
L=Ldet+αLpull+βLpush+γLoff
Ldet为角点损失,Lpull、Lpush为编码损失,Loff为offset损失,且α取值0.1,β取值为0.1,γ取值为1。
6.根据权利要求5所述的一种电子档案管理方法,其特征在于所述对每张热力图中每个角点进行预测的损失函数为:
Figure FDA0003256035500000021
式中pij表示预测的heatmap在第C个通道的(i,j)位置的值,ycij表示对应位置的标记框,N表示目标的数量,α表示难易分类样本的损失权重;β表示参数。
7.根据权利要求5所述的一种电子档案管理方法,其特征在于所述编码的损失函数为:
Figure FDA0003256035500000022
Figure FDA0003256035500000023
etk表示属于k类目标的左上角点的编码向量,ebk表示属于k类目标的右下角点的编码向量,ek表示etk和ebk的均值。
CN202011254598.9A 2020-11-11 2020-11-11 一种电子档案管理方法 Active CN112329669B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011254598.9A CN112329669B (zh) 2020-11-11 2020-11-11 一种电子档案管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011254598.9A CN112329669B (zh) 2020-11-11 2020-11-11 一种电子档案管理方法

Publications (2)

Publication Number Publication Date
CN112329669A CN112329669A (zh) 2021-02-05
CN112329669B true CN112329669B (zh) 2021-11-16

Family

ID=74317730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011254598.9A Active CN112329669B (zh) 2020-11-11 2020-11-11 一种电子档案管理方法

Country Status (1)

Country Link
CN (1) CN112329669B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392747A (zh) * 2021-06-07 2021-09-14 北京优创新港科技股份有限公司 一种用于立体仓库的货物包装箱识别方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107526785A (zh) * 2017-07-31 2017-12-29 广州市香港科大霍英东研究院 文本分类方法及装置
CN111125422A (zh) * 2019-12-13 2020-05-08 北京达佳互联信息技术有限公司 一种图像分类方法、装置、电子设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110046264A (zh) * 2019-04-02 2019-07-23 云南大学 一种面向手机文档的自动分类方法
CN110298338B (zh) * 2019-06-20 2021-08-24 北京易道博识科技有限公司 一种文档图像分类方法及装置
CN111125358B (zh) * 2019-12-17 2023-07-11 北京工商大学 一种基于超图的文本分类方法
CN111275038A (zh) * 2020-01-17 2020-06-12 平安医疗健康管理股份有限公司 图像文本识别方法、装置、计算机设备及计算机存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107526785A (zh) * 2017-07-31 2017-12-29 广州市香港科大霍英东研究院 文本分类方法及装置
CN111125422A (zh) * 2019-12-13 2020-05-08 北京达佳互联信息技术有限公司 一种图像分类方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112329669A (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
Siddiqui et al. Rethinking semantic segmentation for table structure recognition in documents
Dong et al. Tablesense: Spreadsheet table detection with convolutional neural networks
US7570816B2 (en) Systems and methods for detecting text
CN112541355B (zh) 一种实体边界类别解耦的少样本命名实体识别方法与系统
CN112016638B (zh) 一种钢筋簇的识别方法、装置、设备及存储介质
CN112199499B (zh) 文本划分方法、文本分类方法、装置、设备及存储介质
CN112329669B (zh) 一种电子档案管理方法
CN114186080B (zh) 基于语义共享的深度跨模态检索方法及系统
CN111815108A (zh) 一种电网工程设计变更与现场签证审批单的评价方法
CN115269925A (zh) 一种基于层次结构的无偏置场景图生成方法
CN116681961A (zh) 基于半监督方法和噪声处理的弱监督目标检测方法
CN115359468A (zh) 一种目标网站识别方法、装置、设备及介质
CN116168406A (zh) 一种多维度数据分析的围标串标检测方法及系统
CN113298112B (zh) 一种一体化数据智能标注方法及系统
CN114283323A (zh) 一种基于图像深度学习的海上目标识别系统
CN114842301A (zh) 一种图像注释模型的半监督训练方法
CN114694098A (zh) 基于图像识别与知识图谱的电网基建施工风险管控方法
CN113989811A (zh) 基于深度学习的贸易合同中项目公司、供应商的提取方法
CN109739981B (zh) 一种pdf文件类别判定方法及文字提取方法
Blomqvist et al. Joint handwritten text recognition and word classification for tabular information extraction
CN117992620B (zh) 一种基坑工程评估方法、系统、存储介质及电子设备
Liu IntelliExtract: An End-to-End Framework for Chinese Resume Information Extraction from Document Images
CN114241495B (zh) 一种用于脱机手写文本识别的数据增强方法
CN116012656B (zh) 样本图像的生成方法和图像处理模型的训练方法、装置
US11823477B1 (en) Method and system for extracting data from tables within regulatory content

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20210722

Address after: 150030, No. 61, building North Street, Xiangfang District, Heilongjiang, Harbin

Applicant after: STATE GRID HEILONGJIANG ELECTRIC POWER COMPANY LIMITED, ELECTRIC POWER Research Institute

Applicant after: STATE GRID CORPORATION OF CHINA

Address before: Room 402, unit 1, 80-2 Taishan Road, Xiangfang District, Harbin, Heilongjiang

Applicant before: Sun Liye

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant