CN116861014A - 一种基于预训练语言模型的图像信息抽取方法及装置 - Google Patents
一种基于预训练语言模型的图像信息抽取方法及装置 Download PDFInfo
- Publication number
- CN116861014A CN116861014A CN202311132052.XA CN202311132052A CN116861014A CN 116861014 A CN116861014 A CN 116861014A CN 202311132052 A CN202311132052 A CN 202311132052A CN 116861014 A CN116861014 A CN 116861014A
- Authority
- CN
- China
- Prior art keywords
- template
- text
- prompt
- information
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 119
- 238000000605 extraction Methods 0.000 title claims abstract description 112
- 238000000034 method Methods 0.000 claims abstract description 46
- 238000012937 correction Methods 0.000 claims abstract description 19
- 238000011156 evaluation Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 230000001629 suppression Effects 0.000 abstract description 6
- 238000004801 process automation Methods 0.000 abstract description 4
- 230000003044 adaptive effect Effects 0.000 abstract description 2
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 238000012015 optical character recognition Methods 0.000 description 28
- 230000015654 memory Effects 0.000 description 13
- 238000003860 storage Methods 0.000 description 11
- 238000002372 labelling Methods 0.000 description 6
- 201000010099 disease Diseases 0.000 description 5
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 206010033799 Paralysis Diseases 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000003759 clinical diagnosis Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 102100032202 Cornulin Human genes 0.000 description 3
- 101000920981 Homo sapiens Cornulin Proteins 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000945 filler Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 208000004929 Facial Paralysis Diseases 0.000 description 2
- 208000036826 VIIth nerve paralysis Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000009736 wetting Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/186—Templates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/232—Orthographic correction, e.g. spell checking or vowelisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/1444—Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Character Discrimination (AREA)
Abstract
本发明属于自然语言处理技术领域,提供一种基于预训练语言模型的图像信息抽取方法及装置,该方法包括:建立提示库,基于问题类型和应用场景构建prompt结构模版;输入待处理文字图片,识别文字元素和各文字元素的坐标位置信息;选取相适配的prompt结构模版,根据所识别的文字元素和各文字元素的坐标位置信息生成当前检索信息;将当前检索信息输入预训练语言模型,进行文本纠错和关系提取,以输出信息提取结果,在预训练语言模型的基础上进行P‑tuning训练以自动更新所述prompt结构模版。实现了从输入文字图像到输出文字结果全流程自动化,实现了噪声抑制和纠错,减少了人工工作量,提升了信息抽取的准确率和效率。
Description
技术领域
本发明涉及自然语言处理技术领域,特别涉及一种基于预训练语言模型的图像信息抽取方法及装置。
背景技术
图像信息抽取指的是从文本图像中,抽取出关键的信息的任务,包括两个主要步骤,即从图像中提取出文字信息,及将关键信息从文本中抽取出来。其中,第一个步骤主要实现方法是OCR技术,即光学文字识别,指电子设备(例如扫描仪或数码相机)检查纸上打印的字符,然后用字符识别方法将形状翻译成计算机文字的过程;即,对文本资料进行扫描,然后对图像文件进行分析处理,获取文字及版面信息的过程。然而,基于OCR技术从图像中识别出文字内容,OCR的结果通常是一些离散的文本片段,同时,受OCR模型的性能、图像的质量等因素影响,往往会包含一些噪声和错误,因此,需要对此进行进一步的去噪、纠错,以及文本信息抽取工作。同时,使用人力从这些文档图像中提取或者收集关键信息耗时费力,如何自动化融合图像中的视觉、布局、文字等特征并完成关键信息抽取是一个价值与挑战并存的问题。
现有方法依赖人工设计,需要人工设计和编写规则。而设计和维护规则需要大量的时间和精力,自然语言具有复杂的语言现象,基于规则的方法难以涵盖和处理所有这些复杂性,并且规则的质量和覆盖范围受限于人工设计的能力和经验。此外,现有技术中,无法处理新的或未知的关系,难以处理噪声和错误。基于规则的方法是基于已知的规则和模式进行关系抽取的,无法处理新出现的关系或未知的关系类型。基于规则的方法对输入文本的质量和准确性较为敏感。当文本中存在噪声、错误或不完整信息时,规则可能无法正确匹配和提取关系,导致抽取结果的不准确性。此外,数据标注需求高。大量标注数据的需求较高,需要有足够的训练数据才能获得准确的关系抽取模型。处理噪声困难。OCR识别结果可能存在噪声和错误,这会对机器学习模型的性能产生负面影响。这需要采取噪声处理和纠错机制来提高模型的鲁棒性。因此,现有方法存在依赖于大量人工编写规则或标注数据,噪声抑制、纠错能力不足以及不同领域泛化性不足等的问题。
因此,有必要提供一种新的图像信息抽取方法,以解决上述问题。
发明内容
本发明意在提供一种基于预训练语言模型的图像信息抽取方法及装置,以解决现有技术中依赖于大量人工编写规则或标注数据,噪声抑制、纠错能力不足以及不同领域泛化性不足等的技术问题,本发明要解决的技术问题通过以下技术方案来实现。
第一方面,本发明提出一种基于预训练语言模型的图像信息抽取方法,包括以下步骤:
建立提示库,具体包括基于问题类型和应用场景构建prompt结构模版;输入待处理文字图片,识别文字元素和各文字元素的坐标位置信息;从提示库中选取与待处理文字图片相适配的prompt结构模版,并根据所识别的文字元素和各文字元素的坐标位置信息生成当前检索信息;将所生成的当前检索信息输入优化后的预训练语言模型,进行文本纠错和关系提取,以输出信息提取结果,其中,在预训练语言模型的基础上进行P-tuning训练以自动更新所述prompt结构模版。
根据可选的实施方式,所述自动更新所述prompt结构模版,包括:计算所输出的信息提取结果与期望结果之间的距离或相似度,以确定是否满足要求条件,在确定满足条件时,将所输出的信息提取结果存入提示库;在确定未满足要求条件时,更新当前使用的prompt结构模版。
根据可选的实施方式,根据所计算得到的距离或相似度,使用梯度下降算法优化标签的超参数,使信息提取结果更接近期望结果;在预训练语言模型的基础上进行P-tuning训练,通过多次迭代不断更新Prompt结构模版中填充槽所对应的嵌入向量,以在P-tuning训练过程中自动更新Prompt结构模版。
根据可选的实施方式,所述基于问题类型和应用场景构建prompt结构模版的方法,包括以下步骤:根据不同应用场景的关系类型和任务需求,配设prompt结构模板;配设的所述prompt结构模板包含关键词和填充槽,所述填充槽用于插入具体的文本信息和位置信息。
根据可选的实施方式,所述构建prompt结构模版的方法,包括以下步骤:确定任务目标,具体确定要抽取的关系类型和期望目标;确定与应用场景相对应的填充槽及其数量。
根据可选的实施方式,还包括以下步骤:使用评估数据集对经P-tuning训练得到的预训练语言模型进行评估,分析生成的prompt结构模版在关系抽取任务上的性能参数,根据评估结果,对prompt结构模版进行优化和调整。
根据可选的实施方式,所述从提示库中选取与待处理文字图片相适配的prompt结构模版,并根据所识别的文字元素和各文字元素的坐标位置信息生成当前检索信息,包括:选取与场景文字标识相适配的prompt结构模版,将所识别的文字元素和各文字元素的坐标位置信息填入所选取的prompt结构模版中预留的填充槽中,生成当前检索信息。
根据可选的实施方式,还包括以下步骤:使用OCR模型,识别文字元素和各文字元素的坐标位置信息;所述预训练语言模型为GPT-3模型。
第二方面,本发明提出一种基于预训练语言模型的图像信息抽取装置,采用本发明第一方面所述的图像信息抽取方法,所述图像信息抽取装置包括:提示库建立模块,用于建立提示库,具体包括基于问题类型和应用场景构建prompt结构模版;识别处理模块,用于输入待处理文字图片,识别文字元素和各文字元素的坐标位置信息;生成模块,从提示库中选取与待处理文字图片相适配的prompt结构模版,并根据所识别的文字元素和各文字元素的坐标位置信息生成当前检索信息;输出模块,将所生成的当前检索信息输入优化后的预训练语言模型,进行文本纠错和关系提取,以输出信息提取结果,其中,预训练语言模型的基础上进行P-tuning训练以自动更新所述prompt结构模版。
根据可选的实施方式,还包括自动更新模块,所述自动更新模块用于自动更新所述prompt结构模版,或用于计算所输出的信息提取结果与期望结果之间的距离或相似度,以确定是否满足要求条件,在确定满足条件时,将所输出的信息提取结果存入提示库;在确定未满足要求条件时,更新当前使用的prompt结构模版。
第三方面,本发明提供一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明第一方面所述的方法。
第四方面,本发明提供一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现本发明第一方面所述的方法。
与现有技术相比,本发明具有以下优点与有益效果:
1、本发明通过使用OCR模型识别文字图像中的文字元素及其位置坐标信息,在提示库中选取合适的prompt结构模版,通过将各文字元素及各文字元素的坐标信息与prompt结构模版结合生成当前检索信息,并输入到预训练语言模型中进行文本纠错、信息抽取,能够有效实现从输入文字图像到输出文字结果全流程自动化,利用大规模预训练语言模型中蕴含的丰富知识对于OCR识别结果进行了噪声抑制和纠错,能够大大减少人工工作量,还能够提升信息抽取的准确率和效率。
2、本发明通过在预训练语言模型的基础上进行P-tuning训练以自动更新所述prompt结构模版,能够有效减少训练时长,能够减少要学习的参数数量,能够在注样本很少的情况下完成对prompt结构模板的学习,且不易过拟合,进而有效优化模型的同时有效更新prompt结构模版,能够有效提高模型精度。
附图说明
图1是本发明的基于预训练语言模型的图像信息抽取方法的一示例的步骤流程图;
图2是本发明的基于预训练语言模型的图像信息抽取方法中构建prompt结构模版的一具体示例的流程示意图;
图3是本发明的基于预训练语言模型的图像信息抽取方法中OCR模型的建立的一示例的流程图;
图4是本发明的基于预训练语言模型的图像信息抽取方法中更新prompt结构模版的一具体示例的流程示意图;
图5是本发明的基于预训练语言模型的图像信息抽取装置的一示例的框架示意图;
图6是根据本发明的电子设备实施例的结构示意图;
图7是根据本发明的计算机可读介质实施例的结构示意图。
具体实施方式
实施例
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
鉴于上述问题,本发明提出一种基于预训练语言模型的图像信息抽取方法,该方法通过使用OCR模型识别文字图像中的文字元素及其位置坐标信息,在提示库(例如Prompt提示库)中选取合适的prompt结构模版,通过将各文字元素及各文字元素的坐标信息与prompt结构模版结合生成当前检索信息(例如Query,具体为问题检索、查询检索等),将所生成的当前检索信息输入到预训练语言模型中进行文本纠错及抽取符合要求的图像中的关系实体信息。本发明实现了从输入文字图像到输出文字结果全流程自动化,并利用大规模预训练语言模型中蕴含的丰富知识对于OCR识别结果进行了噪声抑制和纠错,大大减少了人工工作量,提升了信息抽取的准确率和效率。
需要说明的是,本发明的图像信息抽取方法中信息抽取任务特别适用于OCR识别的下游任务,存在以下的实际应用场景:表单识别、车票信息抽取、身份证信息抽取、医疗信息提取,等等。
图1是本发明的图像信息抽取方法的一示例的步骤流程图。
下面参照图1、图2、图3和图4,对本发明的内容进行详细说明。
如图1所示,在步骤S101中,建立提示库,具体包括基于问题类型和应用场景构建prompt结构模版。
如图2所示,基于问题类型和应用场景构建prompt结构模版,具体包括以下步骤。
步骤S201:确定任务目标,具体确定要抽取的关系类型和期望目标。
具体的,例如车票信息抽取应用场景,确定车票信息抽取任务。期望目标:从车票图片中抽取“{姓名}、{车次}、{起始站}、{终点站}、{发车时间}和{到站时间}”等六个关键词。
例如,抽取车次与时间的关系类型、车次与站点的关系类型、车次与乘车人的关系类型等。
再例如,期望抽取到的车票信息内容如下:姓名:d润;车次:D5%%2次;起始站:C春;终点站:J林。
在该应用场景中,包括车次与发车时间(或车次与到站时间)的关系类型(即车次与时间关系类型),车次与起始站(或车次与终点站)的关系类型(即车次与站点的关系类型),车次与乘车人的关系类型等。
步骤S202:确定与应用场景相对应的填充槽及其数量。
具体根据不同应用场景的关系类型和任务需求,配设prompt结构模板接着,根据上述多个关系类型车票信息提取任务,配设第一类prompt结构模板。
具体的,prompt结构模板包含关键词和填充槽,所述填充槽用于插入具体的要抽取信息、具体的文本信息和位置信息(在文字图像中的坐标位置、或在文本段中的坐标位置信息)。
例如,“{姓名}、{车次}、{起始站}、{终点站}、{发车时间}和{到站时间}”和“{文字1 + 坐标1} + {文字2 + 坐标2} + … {文字6+ 坐标6} ”即为关键词和填充槽。
具体的,所述prompt结构模版包括与应用场景相对应的指定数量的填充槽。例如,在车票信息抽取应用场景中,包括六个填充槽。
具体的,关键词的数量a和填充槽的数量b相等。但是不限于此,在其他实施方式中m关键词的数量a小于填充槽的数量b。
需要说明的是,在例如表单识别、身份证信息抽取、医疗信息提取的应用场景下,配设第二类prompt结构模板、第三类prompt结构模板、第四类prompt结构模板。关键词的数量和填充槽的数量没有特别的限制。
在一具体实施方式中,确定问题类型和知识库,确定问题类型和应用领域,以便构建相应的提示库(即prompt库)。接着,收集并整理与问题类型相关的知识库或数据集,包括问题与答案的对应关系。然后,构建prompt结构模板,设计合适的问题模板,结合识别出的文字元素和其坐标信息。根据问题类型和知识库,构建适用于预训练语言模型的prompt结构模板,以引导模型生成准确的答案。
例如,使用人工构建prompt结构模板,针对常见的车牌号码、发票、试卷等关系抽取任务。例如针对不常见的如医学报告、科学实验等专业性较强的图像信息抽取任务,还可通过P-tuning方式构建prompt结构库。
具体的,在确定与应用场景相对应的填充槽及其数量之前,准备初始prompt结构模版,根据关系类型和任务需求,准备一组初始的prompt结构模板,具体基于常见的关键词和填充槽进行配设。例如:“[unused1][unused2][unused3][unused4][unused5][unused6]+{文字1 + 坐标1} + {文字2 + 坐标2} + ……。”等。
通过构建多类prompt结构模板,以建立提示库,所述提示库用于为待处理文字图片提供相适配的prompt结构模板,以进一步用于生成当前检索信息。
接下来,在步骤S102中,输入待处理文字图片,识别文字元素和各文字元素的坐标位置信息。
在一具体实施方式中,例如使用OCR模型作为文本识别模型,识别文字元素和各文字元素的坐标位置信息。
具体使用OCR模型提取待处理文字图片(例如为文字图像)中的各文字元素及各文字元素的坐标位置信息。
需要说明的是,在本示例中,所述待处理文字图片为包含文字元素的图片或照片。
对于OCR模型的建立,具体包括以下步骤:
步骤S301:进行数据收集与准备。
需要说明的是,本发明所建立的OCR模型需要对图像文字进行识别和定位,因此需要返回两部分信息:文字内容和文字所在图片中的位置信息,因此,模型主要包括两个模块,即文本检测(用于定位)和文本识别(用于识别文字内容)。
具体的,收集包含与表单识别、车票信息抽取、身份证信息抽取、医疗信息提取相关的不同类型、不同质量的图像数据集,其中,包括文档、照片或图片等。为每张图像标注文字元素的位置坐标,例如使用矩形框标注或者多边形标注。为每个文字元素标注对应的文本。
步骤S302:对文本识别模型进行训练。
具体使用收集和标注的训练数据集,训练OCR模型,得到训练好的OCR模型。
需要说明的是,在其他实施方式中,还可选择使用现有的OCR模型架构(如Tesseract、CRNN等),并使用收集和标注的训练数据集对现有的OCR模型进行微调训练,得到训练好的OCR模型,即得到文本识别模型。此外,还可以使用深度学习模型,如卷积神经网络(CNN)和循环神经网络(RNN)的结合,建立文本识别模型,以实现文字识别。上述近作为可选示例进行说明,不能理解成对本发明的限制。
具体的,选用CTPN算法进行文本检测任务,选用CRNN+CTC方法进行文本识别算法。
文本检测模块使用CTPN算法,CTPN网络结构主要包括三个部分:卷积层提取特征、候选区域生成和回归预测。首先,使用预训练的卷积神经网络(通常是VGG16)对输入图像(例如包含文字元素的图片或照片)进行卷积操作,提取图像的特征映射。然后,在特征映射上使用双向LSTM(长短时记忆网络)来捕捉文本行的上下文信息。这有助于识别不同文本行之间的联系,生成上下文敏感区域。接着,在LSTM输出的基础上,使用1x1卷积产生候选区域,这些候选区域被认为可能包含文本,简称生成一个个包含文字锚框、即多个文字锚框。最后,进行回归预测,针对每个候选区域,使用另一个LSTM网络预测生成文本框的位置和形状。
文本识别模块选用CRNN+CTC方法,即首先使用CNN提取图像卷积特征,然后引入深层双向LSTM(递归神经网络)进一步提取图像卷积特征中的序列特征,最后引入CTC(Connectionist Temporal Classification,基于神经网络的时序类分类)解决训练时字符无法对齐的问题。
具体的,收集包含不同类型、不同质量的图像数据集,其中包括文档、照片等,为每张图像标注文字元素的位置坐标,可以使用矩形框标注或者多边形标注。为每个文字元素标注对应的文本。使用以上数据进行模型训练,获得OCR模型。
步骤S303:文字元素识别。
具体的,使用训练好的OCR模型对新的图像进行文字识别,获取每个文字元素的识别结果,并获取每个文字元素的位置坐标信息。
需要说明的是,上述仅作为可选示例进行说明,不能理解成对本发明的限制。
接下来,在步骤S103中,从提示库中选取与待处理文字图片相适配的prompt结构模版,并根据所识别的文字元素和各文字元素的坐标位置信息生成当前检索信息。
具体从所建立的提示库中选取与场景文字标识相适配的prompt结构模版,将所识别的文字元素和各文字元素的坐标位置信息填入所选取的prompt结构模版中预留的填充槽中,生成当前检索信息。
在一具体实施方式中,使用现有的prompt结构模版或者上述步骤S101所建立的提示库中的prompt结构模版,将所识别的文字元素和各文字元素的坐标位置信息填入上述prompt结构模版中,生成当前检索信息。
具体的,所述当前检索信息为“{姓名+(x1,y1,h1)} + {车次+(x2,y2,h2)} + …{到站时间+(xn,yn,hn)} ”,在该示例中,n等于6,六个关键词和六个坐标位置信息,所述坐标位置信息(xn,yn,hn)中xn表示文字元素相对于待处理文字图片的中心的坐标(X轴、即水平方向上的数值和Y轴、即竖直方向上的数值),hn表示文字元素的中心与待处理文字图片的中心的连线距离。
在另一优选实施方式中,使用更新后的prompt结构模板(即对步骤S101所建立的提示库中的prompt结构模版进行更新后的prompt结构模板),将识别出的文字元素与其坐标信息填入prompt结构模板预留的填充槽中,形成具体的Query(提问)。所以输入的prompt结构模版中除了预留了文字信息的填充槽外,还增加了添加文字位置坐标信息的填充槽,以帮助预训练语言模型更好理解文本,预训练语言模型可通过文本位置信息更好地进行文本重排,利用预训练语言模型自身强大的语言理解和生成能力,能够有效对文本进行降噪、纠错等后处理。
需要说明的是,上述仅作为可选示例进行说明,不能理解成对本发明的限制。
接下来,在步骤S104中,将所生成的当前检索信息输入的预训练语言模型,进行文本纠错和关系提取,以输出信息提取结果,其中,在预训练语言模型的基础上进行P-tuning训练以自动更新所述prompt结构模版。
具体的,所述预训练语言模型为GPT-3语言模型。
在本实施方式中,在预训练语言模型的基础上进行P-tuning训练以自动更新所述prompt结构模版。即使用P-tuning方式自动构建并更新prompt库。
需要说明的是,在本发明中,根据已有的标注样本来自动构建prompt结构模版,P-tuning 重新审视了关于模版的定义,放弃了“模版由自然语言构成”这一常规要求,从而将模版的构建转化为连续参数优化问题,能够有效优化prompt结构模版。
具体使用标注有回复答案或回复信息的结构化文本段(即训练样本数据)。使用所建立的训练数据集训练预训练语言模型。在模型训练过程中,通过已标注文字标签的训练样本数据,求出prompt结构模版,以校正或调整当前prompt结构模版。
具体的,在预训练语言模型的基础上,进行P-tuning训练,通过多次迭代不断更新Prompt结构模版中填充槽所对应的嵌入向量,以在P-tuning训练过程中自动更新Prompt结构模版。
对于自动更新Prompt结构模版的过程,如图4所示,具体包括以下步骤。
步骤S401:确定任务目标。
具体明确需要抽取的关系类型和任务目标。
例如:任务目标:从医学影像图像中,提取病人的“性别”、“年龄”、“姓名”、“临床诊断”、“M*诊断”和“医师”等关键信息信息。
期望抽取到的结果信息内容如下:
性别:女;年龄:27岁;姓名:小明;临床诊断:面神经麻痹[贝尔麻痹/面瘫];M*诊断:颅脑M&&平扫检查未见明显异常,颅脑M&&检查未见明显异常;医师:小红。
步骤S402:收集训练数据。
具体收集包含所需抽取关系的训练数据集,例如可从前一阶段构建的OCR模型识别的文字及位置坐标结果中选取少量数据。训练数据包括构建prompt的文字及坐标位置,以及最终期望获得的标准结果即抽取到的关系信息。
步骤S403:准备初始的prompt结构模版。
根据关系类型和任务需求,准备一组初始的prompt结构模板,例如可基于常见的关键词和填充槽进行配设或设计。
例如,初始的prompt结构模板为“[unused1][unused2][unused3][unused4][unused5]
[unused6]+ {文字1 + 坐标1} + {文字2 + 坐标2} + ……。”。
其中,“[unused1][unused2][unused3][unused4][unused5][unused6]”为六个未知的token,也就是需要优化的目标。这里的 token 数目是一个超参数,放在前面还是后面也可以调整。接着,为了让“模版”发挥作用,用标注数据来求出这个模板。
需要说明的是,对于[unused]的数量,以及{文字1 + 坐标1} 的数量,都没有特别的限制,主要根据实际任务需求来定。
步骤S404:进行P-tuning训练。
使用步骤S402所收集的训练数据和步骤S403中的初始的prompt结构模版,在预训练语言模型的基础上进行P-tuning训练。训练过程中,固定预训练语言模型的参数和结构不变,使用初始化的prompt结构模版和输入样本,输入到预训练语言模型中生成模型输出,即输出信息提取结果。接着,使用某种距离度量方法(如编辑距离、余弦相似度等),计算生成的输出信息提取结果与期望结果之间的距离或相似度。根据计算得到的距离或相似度,使用优化算法(如梯度下降),只优化 [unused1]~[unused6] 这几个token 的 Embedding(即嵌入向量),使其更接近期望结果(即期望输出的结果)。经多次迭代自动更新prompt结构模版,直到达到一定的收敛条件或指标。换句话说,整个训练过程就是要学习 这六个新的 Embedding(即嵌入向量),使得它起到了模版的作用。由此,因为模型权重都被固定住了,训练时长很短(即会大大缩短训练时间),而且因为要学习的参数很少,即使标注样本很少(训练数据样本很少),也能完成对prompt结构模板的学习,且不容易过拟合。
步骤S405:进行评估和优化。
例如,使用评估数据集对P-tuning训练得到的模型进行评估,分析生成的prompt结构模版在关系抽取任务上的性能表现。根据评估结果,对prompt结构模版进行优化和调整,调整prompt结构模版的生成策略,并优化模型,以提高信息(例如疾病、车辆等)识别的准确性和效果。
具体的,所述评估数据集例如医疗信息提取任务中的新的一批从病例中提取到的文字和位置的信息与期望提取到的信息对。具体将评估数据集的文字和位置信息与训练出来的prompt结构模版进行组合输入到预训练语言模型中,抽取到的信息与希望抽取到的信息进行对比来评估效果。
需要说明的是,对于评估数据集,上述仅作为可选示例进行说明,不能理解成对本发明的限制。在其他实施方式中,例如标注有期望提取到的文字信息、位置信息的例如车辆标识识别任务或其他任务的信息对。
步骤S406:生成提示库,并更新所生成的提示库。
具体使用经过优化的P-tuning模型,例如医疗信息提取任务中结合影像中的疾病名称和位置信息,生成一系列适用于疾病识别的prompt结构模版示例,以生成或形成提示库(即prompt库)。
对于P-tuning训练过程的具体说明。
先给定一个预训练语言模型(例如使用 M 表示,M是使用上述步骤中用于信息抽取的预训练语言模型)
具体的,一个离散的输入序列:x1:n={x0,x1,...,xn} ,以及这个序列的经历了嵌入层 e∈M的输出{e(x0),e(x1),...e(xn)},也就是文字内容及该文字内容在图片中的位置信息。
接着,一个“处理后”的tokens序列(即标签信息,使用 y 表示),并且tokens序列会被用来“参与”下游任务的处理。即目标抽取的标准信息。
需要说明的是,一个prompt 结构模版的功能是组织上下文输入(例如使用 x表征模型输入) ,目标序列 y ,以及prompt结构模版到另一个模板T。
例如:在疾病信息抽取任务中,一个模板T的例子为:“以下是我从一张病例图片中提取到的文字及其位置坐标+ {文字1 + 坐标1} + {文字2 + 坐标2} + ……。请你帮我将其中的“性别”、“年龄”、“姓名”信息提取出来可以么?性别:女;年龄:27;姓名:小明;”
其中,prompt结构模版为“以下是我从一张病例图片中提取到的文字及其位置坐标……请你帮我将其中的……信息提取出来可以么?”,而输出信息抽取结果为“{文字1 +坐标1} + {文字2 + 坐标2} + ……“性别”、“年龄”、“姓名””就是x1:n,而“性别:女;年龄:27;姓名:小明;”,也即目标答案y。
V 是预训练语言模型 M 的词表。
在P-tuning训练中将模板T中的prompt结构模版用作被训练参数,放弃了“模版由自然语言构成”这一常规要求,将其设为m个未知的prompt token,也就是[P1][P2]……[Pi]……[Pm],[Pi]是模板T中的第i个prompt token;
具体的,将一个模板T表示为: T={[P0:i],x,[Pi+1:m],y},这里面的每个元素都是一个“token”,其中m表示prompt token的个数。
经过嵌入层(embedding层)之后,上面的模板T可被表示为:{e([P0:i]),e(x),e([Pi+1:m]),e(y)}。
与上面对应的是,在P-tuning里面,不是使用的一个个离散的prompt tokens,而是把每个[P1]看成一个pseudotoken,并把模板T映射成:{h0,...,hi,e(x),hi+1,...,hm,e(y)},这里面, hi是可训练的embedding tensors(连续的张量),具体为第 i个embeddingtensors, i属于0≤i<m;e(x)表示文字与位置信息转化为嵌入张量。由此将一个个离散的tokens,替换成一个个稠密表示的张量,可促使找到一个个更好的连续的prompts(提示词),其可以“摆脱”/“超越”,原始的词典 V 的表示能力范围。
最后,基于下游的损失函数 L (根据任务的不同,损失函数的具体的计算公式也会不一样),可通过微分操作来最优化连续的prompt hi(0≤i<m) :
,
其中,表示损失函数/>的最小值、即/>,m表示prompt token的个数;/>表示损失函数 ;/>表示用于信息抽取的预训练语言模型,x表示离散的输入序列:x1:n={x0,x1,...,xn};y表示上述“处理后”的tokens序列、即标签信息;h(即上述 hi)表示是可训练的embedding tensors(连续的张量),具体为第i个embedding tensors, i属于0≤i<m。
接着,计算训练样本数据所输出的信息提取结果与期望结果之间的距离或相似度,以确定是否满足要求条件。可选地,根据距离的大小(例如小于0.01,这里的距离是指对于两段话,其中第一段话变成第二段话需要变更的操作次数)或者相似度的高低(例如相似度在95%以上)设定阈值。
在确定满足条件时,将所输出的信息提取结果存入提示库。
在确定未满足要求条件时,更新当前使用的prompt结构模版。
例如,所输出的信息提取结果:从医学影像图像中提取病人的“性别”、“年龄”、“姓名”、“临床诊断”、“MR诊断”和“诊断医师”等关键信息信息。期望结果如下:性别:女;年龄:27岁;姓名:小明;临床诊断:m神经麻痹[贝尔麻痹/m瘫];M*诊断:颅脑M&&平扫检查未见明显异常;颅脑MRA检查未见明显异常;诊断医师:小红。
根据将所输出的信息提取结果与期望结果中各文字元素进行向量转换后,进一步进行向量相似度计算,得到相似度为95%。在确定满足条件(满足相似度大于85%)时,将所输出的信息提取结果存入提示库,并确定不更新当前使用的prompt结构模版。
接着,根据所计算得到的距离或相似度,使用梯度下降算法优化标签的超参数,使信息提取结果更接近期望结果。
在满足收敛条件时,停止迭代,以停止更新Prompt结构模版。
在一可选实施方式中,如图3所示,所述更新prompt结构模版包括以下步骤。
首先,初始化prompt结构模版。例如,根据具体应用场景,配设多组初始的prompt结构模版。例如基于场景所常用的关键词和填充槽进行配设。
接着,根据在使用所建立的训练数据集训练预训练语言模型的过程中,采用P-tuning训练所述预训练语言模型,通过将训练样本数据计算所输出的信息提取结果与期望结果进行距离计算(即图3所示的“计算输出的信息提取结果与期望结果之间的距离”),来判断是否满足要求。
在确定未满足要求要求时(即图3所示的“否”),更新当前使用的prompt结构模版。
在确定满足要求时(即图3所示的“是”),将所输出的信息提取结果存入提示库。
使用更新Prompt结构模版,生成与待处理文字图片相对应的当前检索信息,并输入预训练语言模型,以输出更精确的信息提取结果。
在另一可选实施方式中,使用评估数据集对经P-tuning训练得到的预训练语言模型进行评估,分析生成的prompt结构模版在关系抽取任务上的性能参数,根据评估结果,对prompt结构模版进行优化和调整,以调整prompt结构模版的生成策略,以提高目标(例如车票、身份、疾病等目标)识别的准确性和效果。
具体的,所述评估数据集例如医疗信息提取任务中的新的一批从病例中提取到的文字和位置的信息与期望提取到的信息对。具体将评估数据集的文字和位置信息与训练出来的prompt结构模版进行组合输入到预训练语言模型中,抽取到的信息与希望抽取到的信息进行对比来评估效果。
需要说明的是,对于评估数据集,上述仅作为可选示例进行说明,不能理解成对本发明的限制。在其他实施方式中,例如标注有期望提取到的文字信息、位置信息的例如车辆标识识别任务或其他任务的信息对。
例如,prompt结构模版为“[unused1][unused2][unused3][unused4][unus-ed5][unused6]+ {文字1 + 坐标1} +{文字2 + 坐标2} + …{文字6 + 坐标6}。”。则优化[unused1]~[unused6]这六个 token 的嵌入向量(即 Embedding)。并且将填充槽的数量作为一个超参数进行优化。
通过在使用P-tuning训练自动更新所述prompt结构模版,能够有效减少训练时长,能够减少要学习的参数数量,能够在注样本很少的情况下完成对peompt结构模板的学习,且不易过拟合。
此外,附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以例如在多个模块中同步或异步执行的。
与现有技术相比,本发明通过使用OCR模型识别文字图像中的文字元素及其位置坐标信息,在提示库中选取合适的prompt结构模版,通过将各文字元素及各文字元素的坐标信息与prompt结构模版结合生成当前检索信息,并输入到预训练语言模型中进行文本纠错、信息抽取,能够有效实现从输入文字图像到输出文字结果全流程自动化,利用大规模预训练语言模型中蕴含的丰富知识对于OCR识别结果进行了噪声抑制和纠错,能够大大减少人工工作量,还能够提升信息抽取的准确率和效率。
此外,通过在预训练语言模型的基础上进行P-tuning训练以自动更新所述prompt结构模版,能够有效减少训练时长,能够减少要学习的参数数量,能够在注样本很少的情况下完成对prompt结构模板的学习,且不易过拟合,进而有效优化模型的同时有效更新prompt结构模版,能够有效提高模型精度。
下述为本发明装置实施例,可以用于执行本发明方法实施例。对于本发明装置实施例中未披露的细节,请参照本发明方法实施例。
图5是根据本发明的图像信息抽取装置的一示例的结构示意图。
参照图5,本公开第二方面提供一种基于预训练语言模型的图像信息抽取装置500,采用本发明第一方面所述的图像信息抽取方法。所述图像信息抽取装置500包括提示库建立模块510、识别处理模块520、生成模块530和输出模块540。
在一具体实施方式中,提示库建立模块510用于建立提示库,具体包括基于问题类型和应用场景构建prompt结构模版。识别处理模块520用于输入待处理文字图片,识别文字元素和各文字元素的坐标位置信息。生成模块530从提示库中选取与待处理文字图片相适配的prompt结构模版,并根据所识别的文字元素和各文字元素的坐标位置信息生成当前检索信息。输出模块540将所生成的当前检索信息输入优化后的预训练语言模型,进行文本纠错和关系提取,以输出信息提取结果,其中,在预训练语言模型的基础上进行P-tuning训练以自动更新所述prompt结构模版。
具体的,使用OCR模型,识别文字元素和各文字元素的坐标位置信息。所述预训练语言模型为GPT-3模型。
在一可选实施方式中,所述基于问题类型和应用场景构建prompt结构模版。
具体根据不同应用场景的关系类型和任务需求,配设prompt结构模板,该prompt结构模板包含关键词和填充槽,所述填充槽用于插入具体的文本信息和位置信息。
具体的,所述构建prompt结构模版包括以下步骤:
确定任务目标,具体确定要抽取的关系类型和期望目标;
确定与应用场景相对应的填充槽及其数量。
在一可选实施方式中,从提示库中选取与待处理文字图片相适配的prompt结构模版,并根据所识别的文字元素和各文字元素的坐标位置信息生成当前检索信息。
具体选取与场景文字标识相适配的prompt结构模版,将所识别的文字元素和各文字元素的坐标位置信息填入所选取的prompt结构模版中预留的填充槽中,生成当前检索信息。
将所生成的当前检索信息输入预训练语言模型,输出与当前检索信息相对应的答案信息。
对于更新prompt结构模版,计算所输出的信息提取结果与期望结果之间的距离或相似度,以确定是否满足要求条件。
在确定满足条件时,将所输出的信息提取结果存入提示库。在确定未满足要求条件时,更新当前使用的prompt结构模版。
根据所计算得到的距离或相似度,使用梯度下降算法优化标签的超参数,使信息提取结果更接近期望结果。
在预训练语言模型的基础上进行P-tuning训练,通过多次迭代不断更新Prompt结构模版中填充槽所对应的嵌入向量,以在P-tuning训练过程中自动更新Prompt结构模版。
在另一可选实施方式中,使用评估数据集更新后的prompt结构模版在关系抽取任务上的性能参数,根据评估结果,对prompt结构模版进行优化和调整。
在又一可选实施方式中,图像信息抽取装置500还包括自动更新模块,所述自动更新模块用于自动更新所述prompt结构模版。
所述自动更新模块还用于计算所输出的信息提取结果与期望结果之间的距离或相似度,以确定是否满足要求条件,在确定满足条件时,将所输出的信息提取结果存入提示库。在确定未满足要求条件时,更新当前使用的prompt结构模版
需要说明的是,在该实施方式中,基于预训练语言模型的图像信息抽取装置所执行的信息抽取方法与图1中的基于预训练语言模型的图像信息抽取方法大致相同,因此省略了相同部分的说明。
图6是根据本发明的电子设备实施例的结构示意图。
如图6所示,电子设备以通用计算设备的形式表现。其中处理器可以是一个,也可以是多个并且协同工作。本发明也不排除进行分布式处理,即处理器可以分散在不同的实体设备中。本发明的电子设备并不限于单一实体,也可以是多个实体设备的总和。
所述存储器存储有计算机可执行程序,通常是机器可读的代码。所述计算机可读程序可以被所述处理器执行,以使得电子设备能够执行本发明的方法,或者方法中的至少部分步骤。
所述存储器包括易失性存储器,例如随机存取存储单元(RAM)和/或高速缓存存储单元,还可以是非易失性存储器,如只读存储单元(ROM)。
可选的,该实施例中,电子设备还包括有I/O接口,其用于电子设备与外部的设备进行数据交换。I/O接口可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
应当理解,图6显示的电子设备仅仅是本发明的一个示例,本发明的电子设备中还可以包括上述示例中未示出的元件或组件。例如,有些电子设备中还包括有显示屏等显示单元,有些电子设备还包括人机交互元件,例如按钮、键盘等。只要该电子设备能够执行存储器中的计算机可读程序以实现本发明方法或方法的至少部分步骤,均可认为是本发明所涵盖的电子设备。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,如图7所示,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干命令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明实施方式的上述方法。
所述软件产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由命令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
上述计算机可读介质承载有一个或者多个程序(例如计算机可执行程序),当上述一个或者多个程序被一个该设备执行时,使得该计算机可读介质实现本公开的数据交互方法。
本领域技术人员可以理解上述各模块可以按照实施例的描述分布于装置中,也可以进行相应变化唯一不同于本实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干命令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本发明实施例的方法。
以上具体地示出和描述了本发明的示例性实施例。应可理解的是,本发明不限于这里描述的详细结构、设置方式或实现方法;相反,本发明意图涵盖包含在所附权利要求的精神和范围内的各种修改和等效设置。
Claims (10)
1.一种基于预训练语言模型的图像信息抽取方法,其特征在于,包括以下步骤:
建立提示库,具体包括基于问题类型和应用场景构建prompt结构模版;
输入待处理文字图片,识别文字元素和各文字元素的坐标位置信息;
从提示库中选取与待处理文字图片相适配的prompt结构模版,并根据所识别的文字元素和各文字元素的坐标位置信息生成当前检索信息;
将所生成的当前检索信息输入预训练语言模型,进行文本纠错和关系提取,以输出信息提取结果,其中,在预训练语言模型的基础上进行P-tuning训练以自动更新所述prompt结构模版。
2.根据权利要求1所述的图像信息抽取方法,其特征在于,所述自动更新所述prompt结构模版,包括:
计算所输出的信息提取结果与期望结果之间的距离或相似度,以确定是否满足要求条件,在确定满足条件时,将所输出的信息提取结果存入提示库;
在确定未满足要求条件时,更新当前使用的所述prompt结构模版。
3.根据权利要求2所述的图像信息抽取方法,其特征在于,还包括以下步骤:
根据所计算得到的所述距离或相似度,使用梯度下降算法优化标签的超参数,使信息提取结果更接近期望结果;
在预训练语言模型的基础上进行P-tuning训练,通过多次迭代不断更新Prompt结构模版中填充槽所对应的嵌入向量,以在P-tuning训练过程中自动更新Prompt结构模版。
4.根据权利要求1所述的图像信息抽取方法,其特征在于,所述基于问题类型和应用场景构建prompt结构模版的方法,包括以下步骤:
根据不同应用场景的关系类型和任务需求,配设prompt结构模板;
配设的所述prompt结构模板包含关键词和填充槽,所述填充槽用于插入具体的文本信息和位置信息。
5.根据权利要求4所述的图像信息抽取方法,其特征在于,所述构建prompt结构模版的方法,包括以下步骤:
确定任务目标,具体确定要抽取的关系类型和期望目标;
确定与应用场景相对应的填充槽及其数量。
6.根据权利要求1或2所述的图像信息抽取方法,其特征在于,还包括以下步骤:
使用评估数据集,分析生成的prompt结构模版在关系抽取任务上的性能参数,根据评估结果,对prompt结构模版进行优化和调整。
7.根据权利要求1所述的图像信息抽取方法,其特征在于,所述从提示库中选取与待处理文字图片相适配的prompt结构模版,并根据所识别的文字元素和各文字元素的坐标位置信息生成当前检索信息,包括:
选取与场景文字标识相适配的prompt结构模版,将所识别的文字元素和各文字元素的坐标位置信息填入所选取的prompt结构模版中预留的填充槽中,生成当前检索信息。
8.根据权利要求1所述的图像信息抽取方法,其特征在于,还包括以下步骤:
使用OCR模型,识别文字元素和各文字元素的坐标位置信息;
所述预训练语言模型为GPT-3模型。
9.一种实现权利要求1所述基于预训练语言模型的图像信息抽取方法的图像信息抽取装置,其特征在于,所述图像信息抽取装置包括:
提示库建立模块,用于建立提示库,具体包括基于问题类型和应用场景构建prompt结构模版;
识别处理模块,用于输入待处理文字图片,识别文字元素和各文字元素的坐标位置信息;
生成模块,从提示库中选取与待处理文字图片相适配的prompt结构模版,并根据所识别的文字元素和各文字元素的坐标位置信息生成当前检索信息;
输出模块,将所生成的当前检索信息输入优化后的预训练语言模型,进行文本纠错和关系提取,以输出信息提取结果,其中,在预训练语言模型的基础上进行P-tuning训练以自动更新所述prompt结构模版。
10.根据权利要求9所述的图像信息抽取装置,其特征在于,还包括自动更新模块,所述自动更新模块用于自动更新所述prompt结构模版
或
用于计算所输出的信息提取结果与期望结果之间的距离或相似度,以确定是否满足要求条件,在确定满足条件时,将所输出的信息提取结果存入提示库;
在确定未满足要求条件时,更新当前使用的prompt结构模版。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311132052.XA CN116861014B (zh) | 2023-09-05 | 2023-09-05 | 一种基于预训练语言模型的图像信息抽取方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311132052.XA CN116861014B (zh) | 2023-09-05 | 2023-09-05 | 一种基于预训练语言模型的图像信息抽取方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116861014A true CN116861014A (zh) | 2023-10-10 |
CN116861014B CN116861014B (zh) | 2024-01-26 |
Family
ID=88225371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311132052.XA Active CN116861014B (zh) | 2023-09-05 | 2023-09-05 | 一种基于预训练语言模型的图像信息抽取方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116861014B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117079299A (zh) * | 2023-10-12 | 2023-11-17 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN117076703A (zh) * | 2023-10-11 | 2023-11-17 | 中邮消费金融有限公司 | 一种自动化的卡证结构化信息抽取技术方法及系统 |
CN117133397A (zh) * | 2023-10-27 | 2023-11-28 | 广州国家实验室 | 电子病历数据增强方法、系统、电子设备和存储介质 |
CN117194615A (zh) * | 2023-11-02 | 2023-12-08 | 国网浙江省电力有限公司 | 企业合规数据处理方法及平台 |
CN117609550A (zh) * | 2024-01-17 | 2024-02-27 | 腾讯科技(深圳)有限公司 | 视频标题生成方法和视频标题生成模型的训练方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223695A (zh) * | 2019-06-27 | 2019-09-10 | 维沃移动通信有限公司 | 一种任务创建方法及移动终端 |
CN113139816A (zh) * | 2021-04-26 | 2021-07-20 | 北京沃东天骏信息技术有限公司 | 信息处理方法、装置、电子设备和存储介质 |
CN114661913A (zh) * | 2022-02-22 | 2022-06-24 | 清华大学 | 一种基于预训练语言模型的实体关系抽取方法及装置 |
CN114880431A (zh) * | 2022-05-10 | 2022-08-09 | 中国人民解放军国防科技大学 | 一种基于prompt的事件论元抽取方法及系统 |
CN116152840A (zh) * | 2023-03-10 | 2023-05-23 | 京东方科技集团股份有限公司 | 文件分类方法、装置、设备和计算机存储介质 |
CN116628172A (zh) * | 2023-07-24 | 2023-08-22 | 北京酷维在线科技有限公司 | 基于知识图谱的政务服务领域多策略融合的对话方法 |
-
2023
- 2023-09-05 CN CN202311132052.XA patent/CN116861014B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223695A (zh) * | 2019-06-27 | 2019-09-10 | 维沃移动通信有限公司 | 一种任务创建方法及移动终端 |
CN113139816A (zh) * | 2021-04-26 | 2021-07-20 | 北京沃东天骏信息技术有限公司 | 信息处理方法、装置、电子设备和存储介质 |
CN114661913A (zh) * | 2022-02-22 | 2022-06-24 | 清华大学 | 一种基于预训练语言模型的实体关系抽取方法及装置 |
CN114880431A (zh) * | 2022-05-10 | 2022-08-09 | 中国人民解放军国防科技大学 | 一种基于prompt的事件论元抽取方法及系统 |
CN116152840A (zh) * | 2023-03-10 | 2023-05-23 | 京东方科技集团股份有限公司 | 文件分类方法、装置、设备和计算机存储介质 |
CN116628172A (zh) * | 2023-07-24 | 2023-08-22 | 北京酷维在线科技有限公司 | 基于知识图谱的政务服务领域多策略融合的对话方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117076703A (zh) * | 2023-10-11 | 2023-11-17 | 中邮消费金融有限公司 | 一种自动化的卡证结构化信息抽取技术方法及系统 |
CN117076703B (zh) * | 2023-10-11 | 2024-02-06 | 中邮消费金融有限公司 | 一种自动化的卡证结构化信息抽取技术方法 |
CN117079299A (zh) * | 2023-10-12 | 2023-11-17 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN117079299B (zh) * | 2023-10-12 | 2024-01-09 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN117133397A (zh) * | 2023-10-27 | 2023-11-28 | 广州国家实验室 | 电子病历数据增强方法、系统、电子设备和存储介质 |
CN117133397B (zh) * | 2023-10-27 | 2024-02-20 | 广州国家实验室 | 电子病历数据增强方法、系统、电子设备和存储介质 |
CN117194615A (zh) * | 2023-11-02 | 2023-12-08 | 国网浙江省电力有限公司 | 企业合规数据处理方法及平台 |
CN117194615B (zh) * | 2023-11-02 | 2024-02-20 | 国网浙江省电力有限公司 | 企业合规数据处理方法及平台 |
CN117609550A (zh) * | 2024-01-17 | 2024-02-27 | 腾讯科技(深圳)有限公司 | 视频标题生成方法和视频标题生成模型的训练方法 |
CN117609550B (zh) * | 2024-01-17 | 2024-05-28 | 腾讯科技(深圳)有限公司 | 视频标题生成方法和视频标题生成模型的训练方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116861014B (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116861014B (zh) | 一种基于预训练语言模型的图像信息抽取方法及装置 | |
CN110750959B (zh) | 文本信息处理的方法、模型训练的方法以及相关装置 | |
CN110110585B (zh) | 基于深度学习的智能阅卷实现方法及系统、计算机程序 | |
CN110135427B (zh) | 用于识别图像中的字符的方法、装置、设备和介质 | |
CN110490081B (zh) | 一种基于聚焦权重矩阵与变尺度语义分割神经网络的遥感对象解译方法 | |
CN111259897B (zh) | 知识感知的文本识别方法和系统 | |
CN112862024B (zh) | 一种文本识别方法及系统 | |
CN110929802A (zh) | 基于信息熵的细分类识别模型训练、图像识别方法及装置 | |
CN112883980B (zh) | 一种数据处理方法及系统 | |
CN110781413A (zh) | 兴趣点确定方法及装置、存储介质、电子设备 | |
CN114329034A (zh) | 基于细粒度语义特征差异的图像文本匹配判别方法及系统 | |
CN116229494A (zh) | 一种基于小样本数据的证照关键信息抽取方法 | |
CN117520590B (zh) | 海洋跨模态图文检索方法、系统、设备及存储介质 | |
Zia et al. | Recognition of printed Urdu script in Nastaleeq font by using CNN-BiGRU-GRU based encoder-decoder framework | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
CN112200216A (zh) | 汉字识别方法、装置、计算机设备和存储介质 | |
CN115658921A (zh) | 一种基于预训练语言模型的开放域科学知识发现方法和装置 | |
CN115620314A (zh) | 文本识别方法、答案文本的验证方法、装置、设备及介质 | |
CN113407676A (zh) | 题目批改方法和系统、电子设备和计算机可读介质 | |
He et al. | Modeling coherence and diversity for image paragraph captioning | |
CN116523032B (zh) | 一种图像文本双端迁移攻击方法、装置和介质 | |
CN111209924A (zh) | 一种用于对医嘱进行自动提取的系统及应用 | |
CN117762499B (zh) | 任务指令构建方法和任务处理方法 | |
CN117009532B (zh) | 语义类型识别方法、装置、计算机可读介质及电子设备 | |
CN116561299B (zh) | 代码摘要生成方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |