CN117010326A - 文本处理方法及装置、文本处理模型的训练方法及装置 - Google Patents
文本处理方法及装置、文本处理模型的训练方法及装置 Download PDFInfo
- Publication number
- CN117010326A CN117010326A CN202310693219.3A CN202310693219A CN117010326A CN 117010326 A CN117010326 A CN 117010326A CN 202310693219 A CN202310693219 A CN 202310693219A CN 117010326 A CN117010326 A CN 117010326A
- Authority
- CN
- China
- Prior art keywords
- text
- processing model
- loss
- trained
- processed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000003672 processing method Methods 0.000 title claims abstract description 26
- 238000002372 labelling Methods 0.000 claims description 104
- 238000010276 construction Methods 0.000 claims description 9
- 238000011478 gradient descent method Methods 0.000 description 14
- 241000167854 Bourreria succulenta Species 0.000 description 9
- 235000019693 cherries Nutrition 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000002910 structure generation Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/106—Display of layout of documents; Previewing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/117—Tagging; Marking up; Designating a block; Setting of attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/137—Hierarchical processing, e.g. outlines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种文本处理方法及装置、文本处理模型的训练方法及装置,该方法包括:获取待处理文本;利用训练后的文本处理模型,确定所述待处理文本在各个文本层级分别对应的文本内容;根据各个所述文本层级分别对应的文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得目标文本。
Description
技术领域
本申请属于计算机技术领域,具体涉及一种文本处理方法及装置、文本处理模型的训练方法及装置。
背景技术
通过终端设备例如手机中的笔记、便签、备忘录等文字处理应用进行内容创作例如文字、图文编辑,是用户日常生活和办公场景不可或缺的应用场景。用户希望通过排版使创作的内容更加美观、结构更加清晰,进而提升内容的阅读感受与信息获取效率。
通常,用户可在文字处理软件中手动对所创作的内容进行排版,但是由于终端设备的屏幕小等原因,导致操作繁琐。
发明内容
本申请实施例的目的是提供一种文本处理方法及装置、文本处理模型的训练方法及装置,能够解决现有技术中用户对内容进行排版时操作繁琐的问题。
第一方面,本申请实施例提供了一种文本处理方法,该方法包括:
获取待处理文本;
利用训练后的文本处理模型,确定所述待处理文本在各个文本层级分别对应的文本内容;
根据各个所述文本层级分别对应的文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得目标文本。
第二方面,本申请实施例提供了一种文本处理模型的训练方法,该方法包括:
获取样本文本和所述样本文本的标注信息;所述标注信息包括第一标注信息、第二标注信息和第三标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容,所述第三标注信息为所述样本文本的文本主题;
根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失;
根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失;
利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失;
基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
第三方面,本申请实施例提供了一种文本处理装置,该装置包括:
第一获取模块,用于获取待处理文本;
确定模块,用于利用训练后的文本处理模型,确定所述待处理文本在各个文本层级分别对应的文本内容;
排版模块,用于根据各个所述文本层级分别对应的文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得目标文本。
第四方面,本申请实施例提供了一种文本处理模型的训练装置,该装置包括:
第二获取模块,用于获取样本文本和所述样本文本的标注信息;所述标注信息包括第一标注信息、第二标注信息和第三标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容,所述第三标注信息为所述样本文本的文本主题;
第一构建模块,用于根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失;
第二构建模块,用于根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失;
第三构建模块,用于利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失;
更新模块,用于基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
第五方面,本申请实施例提供了一种电子设备,该电子设备包括处理器和存储器,所述存储器存储可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面或第二方面所述的方法的步骤。
第六方面,本申请实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面或第二方面所述的方法的步骤。
第七方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面或第二方面所述的方法。
第八方面,本申请实施例提供一种计算机程序产品,该程序产品被存储在存储介质中,该程序产品被至少一个处理器执行以实现如第一方面或第二方面所述的方法。
在本申请实施例中,在获取待处理文本之后,利用训练后的文本处理模型,确定出待处理文本在各个文本层级分别对应的文本内容,根据各个文本层级分别对应的文本样式,对待处理文本在各个文本层级分别对应的文本内容进行排版处理,获得目标文本。这样,通过训练后的文本处理模型可对待处理文本在各个文本层级分别对应的文本内容进行排版处理,避免了用户手动排版的操作繁琐。
附图说明
图1是本申请实施例提供的一种文本处理方法的流程图;
图2是本申请实施例提供的电子设备的界面显示示意图之一;
图3是本申请实施例提供的电子设备的界面显示示意图之二;
图4是本申请实施例提供的一个例子的文本处理方法的流程图;
图5是本申请实施例提供的文本处理模型的应用场景示意图之一;
图6是本申请实施例提供的文本处理模型的应用场景示意图之二;
图7是本申请实施例提供的一种文本处理模型的训练方法的流程图;
图8是本申请实施例提供的一个例子的文本处理模型的训练方法的流程图;
图9是本申请实施例提供的一种文本处理装置的结构示意图;
图10是本申请实施例提供的一种文本处理模型的训练装置的结构示意图;
图11是本申请实施例提供的电子设备的结构示意图;
图12是本申请另一实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
通过本申请实施例提供的文本处理方法,可快速对待处理文本进行智能排版处理。
例如,在备忘录应用中,通过本申请实施例提供的文本处理方法,可快速对所输入的备忘录文本进行智能排版。
再例如,在笔记应用中,通过本申请实施例提供的文本处理方法,可快速对所输入的笔记文本进行智能排版。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的文本处理方法进行详细地说明。
如图1所示,其是本申请实施例提供的一种文本处理方法,本实施例主要以该方法应用于电子设备来举例说明。如图1所示,该文本处理方法可以包括如下步骤1100~步骤1300,以下予以详细说明。
步骤1100,获取待处理文本。
其中,待处理文本为用户使用文字处理应用的输入界面所输入的文本,该文字处理应用例如但不限于包括备忘录应用、笔记应用、便签应用。并且,待处理文本可以包括文字,也可以包括图片,本实施例对此不做限定。
可选地,文字处理应用的输入界面显示有排版控件,该排版控件可称为一键智能排版控件。其中,该排版控件用于供用户触发电子设备对待处理文本进行一键智能排版。
示例性地,用户使用文字处理应用的输入界面输入待处理文本,电子设备便可获取该待处理文本,此时,用户可点击文字处理应用的输入界面显示的排版控件以触发电子设备执行一键智能排版。
步骤1200,利用训练后的文本处理模型,确定所述待处理文本在各个文本层级分别对应的文本内容。
其中,各个文本层级例如但不限于包括主标题、大标题、小标题、正文。
在本实施例中,电子设备获取待处理文本之后,便可获取训练后的文本处理模型,并利用训练后的文本处理模型,确定出待处理文本在各个层级分别对应的文本内容。
在一个实施例中,本步骤1200利用训练后的文本处理模型,确定所述待处理文本在各个文本层级分别对应的文本内容可以进一步包括:利用训练后的文本处理模型中的文本结构判断网络,输出所述待处理文本是否能够进行结构化处理的判定结果;在所述待处理文本能够进行结构化处理的情况下,利用训练后的文本处理模型中的文本结构生成网络,输出所述待处理文本在各个所述文本层级分别对应的文本内容。
其中,训练后的文本处理模型的文本结构判断网络,用于判断待处理文本是否能够进行结构化处理,并输出待处理文本是否能够进行结构化处理的判定结果,判定结果可以为“是”,表明待处理文本能够进行结构化处理,判断结果也可以为“否”,表明待处理文本不能够进行结构化处理。
其中,训练后的文本处理模型的文本结构生成网络,用于对待处理文本进行结构化处理,获得待处理文本在各个文本层级分别对应的文本内容。
在本实施例中,电子设备可以先将待处理文本输入至训练后的文本处理模型中的文本结构判断网络进行处理,获得待处理文本是否能够进行结构化处理的判定结果。在判定结果表征待处理文本能够进行结构化处理的情况下,便可接续将待处理文本输入至训练后的文本处理模型的文本结构生成网络进行结构化处理,得到待处理文本在各个文本层级分别对应的文本内容。示例性地,参照图2,利用训练后的文本处理模型得到待处理文本的主标题的文本内容201、大标题的文本内容202、正文的文本内容203。
反之,在判定结果表征待处理文本不能够进行结构化处理的情况下,便会将标准文本样式应用于待处理文本。其中,该标准文本样式可以是文本样式库中的简单图文样式。
需要说明的是,关于如何训练得到训练后的文本处理模型可以参照后续实施例,本实施例对此不做详细赘述。
步骤1300,根据各个所述文本层级分别对应的文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得目标文本。
其中,各个文本层级分别对应的文本样式可以均为文本样式库中的文本样式,各个文本层级分别对应的文本样式也可以是与待处理文本主题相关联的目标文本样式。并且,各个文本层级分别对应的文本样式可以是多个,以便于最终输出多种候选文本供用户选择出目标文本。
在一个实施例中,本申请实施例的文本处理方法还进一步包括:在所述待处理文本能够进行结构化处理的情况下,利用训练后的文本处理模型中的文本主题识别网络,输出所述待处理文本的文本主题。
其中,训练后的文本处理模型的文本主题识别网络,用于对待处理文本进行处理获得待处理文本的文本主题。文本主题识别网络的输入为待处理文本,文本主题识别网络的输出为待处理文本的文本主题。也就是说,在待处理文本能够进行结构化处理的情况下,电子设备会接续将待处理文本输入至训练后的文本处理模型中的文本主题识别网络,获得待处理文本的文本主题。示例性地,图2所示的待处理文本的文本主题可以是“樱花”。
本实施例中,本步骤1300根据各个所述文本层级分别对应的文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得目标文本可以进一步包括:根据各个所述文本层级分别对应的目标文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得所述目标文本。
其中,所述目标文本样式与所述文本主题相关联。
示例性地,参照图2,待处理文本的文本主题为“樱花”,电子设备便可生成与待处理文本的文本主题“樱花”相关联的不同目标文本样式,例如可以是目标文本样式“樱桃图片背景”和目标文本样式“樱花图片标识”。其中,“樱桃图片背景”为待处理文本的主标题对应的目标文本样式,“樱花图片标识”为待处理文本的大标题对应的目标文本样式。电子设备便可将“樱桃图片背景”应用至待处理文本的主标题的文本内容201,将“樱花图片标识”应用于待处理文本的大标题的文本内容202,待处理文本的正文的文本内容203采用普通字体,便可获得目标文本。
需要说明的是,在待处理文本的各个文本层级分别对应多个目标文本样式的情况下,电子设备便可根据各个文本层级分别对应的目标文本样式,对待处理文本在各个文本层级分别对应的文本内容进行排版处理,获得多个候选文本,并由用户从多个候选文本中选择出目标文本。参照图3,对待处理文本进行排版得到候选文本301、候选文本302、候选文本303和候选文本304,用户可选择候选文本302,电子设备便可将候选文本302作为目标文本200。
需要说明的是,在利用训练后的文本处理模型的文本主题识别网络,未输出待处理文本的文本主题的情况下,或者,在待处理文本能够进行结构化处理的情况下,电子设备也可直接从文本样式库中选择与各个文本层级分别对应的文本样式。
在本申请实施例中,在获取待处理文本之后,利用训练后的文本处理模型,确定出待处理文本在各个文本层级分别对应的文本内容,根据各个文本层级分别对应的文本样式,对待处理文本在各个文本层级分别对应的文本内容进行排版处理,获得目标文本。这样,通过训练后的文本处理模型可对待处理文本在各个文本层级分别对应的文本内容进行排版处理,避免了用户手动排版的操作繁琐。
接下来示出一个例子的文本处理方法,参照图4,该文本处理方法包括:
步骤410,获取待处理文本。
步骤420,判断待处理文本是否能够进行结构化处理。
其中,利用训练后的文本处理模型中的文本结构判断网络,输出待处理文本是否能够进行结构化处理的判定结果。在待处理文本能够进行结构化处理的情况下,执行以下步骤430,在待处理文本不能够进行结构化处理的情况下,执行步骤470。
步骤430,获取待处理文本在各个文本分别对应的文本内容。
其中,在待处理文本能够进行结构化处理的情况下,利用训练后的文本处理模型中的文本结构生成网络输出待处理文本在各个文本层级分别对应的文本内容。
步骤440,判断待处理文本是否具有文本主题。
其中,在待处理文本能够进行结构化处理的情况下,利用训练后的文本处理模型中的文本主题识别网络识别待处理文本的文本主题。在识别得到待处理文本的文本主题的情况下,执行步骤450,反之,执行步骤460。
步骤450,根据各个文本层级分别对应的目标文本样式,对待处理文本在各个文本层级分别对应的文本内容进行排版处理,获得目标文本;目标文本样式与文本主题相关联。
执行步骤480。
步骤460,从文本样式库中选择与各个文本层级分别对应的文本样式。
执行步骤480。
步骤470,将标准文本样式应用于待处理文本。
步骤480,调整整体效果。
其中,调整背景颜色、纸张质感、添加分割线等整体效果。
步骤490,输出多个候选文本供用户选择出目标文本。
在一个实施例中,本申请实施例的文本处理方法还进一步包括文本处理模型的训练方法,该文本处理模型的训练方法包括如下步骤2100~步骤2400:
步骤2100,获取样本文本和所述样本文本的标注信息。
其中,所述标注信息包括第一标注信息和第二标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容。通常,可以选取文本处理应用产生的文本,并将文本进行预处理、清洗和标注,获得样本文本和该样本文本的标注信息。
需要说明的是,样本文本的数量越多,训练结果也通常越准确,但样本文本达到一定数量后,训练结果的精度的增加将变的越来越缓慢,直至取向稳定。在此,可以兼顾训练结果的精度和数据处理成本确定所需的样本文本的数量。
步骤2200,根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失X1。
步骤2300,根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失X2。
步骤2400,基于所述第一损失和所述第二损失更新待训练的文本处理模型的网络参数。
可选地,可以通过梯度下降法更新文本处理模型的文本结构判断网络的网络参数并最小化第一损失,在第一损失达到第一阈值的情况下,输出待训练的文本处理模型的文本结构判断网络的网络参数。以及,可以通过梯度下降法更新文本处理模型的文本结构生成网络的网络参数并最小化第二损失,在第二损失达到第二阈值的情况下,输出待训练的文本处理模型的文本结构生成网络的网络参数,进而获得训练后的文本处理模型。参照图4可知,训练后的文本处理模型400包括文本结构判断网络401和文本结构生成网络402。
可选地,还可以基于第一损失X1和第二损失X2,先构建第四损失Y1,其中,第四损失Y1=αX1+βX2,α为第一损失X1的权重,β为第二损失X2的权重。然后通过梯度下降法更新文本处理模型的网络参数并最小化第四损失Y1,输出文本处理模型的网络参数,进而获得训练后的文本处理模型。
接下来示出一个例子的训练后的文本处理模型的应用场景,参照图5,包括:
将待处理文本输入训练后的文本处理模型的文本结构判断网络。
利用训练后的文本处理模型中的文本结构判断网络,输出待处理文本是否能够进行结构化处理的判定结果,在待处理文本不能够进行结构化处理的情况下,流程结束。
在待处理文本能够进行结构化处理的情况下,将待处理文本输入训练后的文本处理模型中的文本结构生成网络。
利用训练后的文本处理模型中的文本结构生成网络输出待处理文本在各个文本层级分别对应的文本内容,流程结束。
在一个实施例,所述标注信息还包括第三标注信息,所述第三标注信息为所述样本文本的文本主题。本申请实施例的文本处理方法还进一步包括:利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失X3。
以上步骤2400基于所述第一损失和所述第二损失更新待训练的文本处理模型的网络参数可以进一步包括:基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
可选地,可以通过梯度下降法更新文本处理模型的文本结构判断网络的网络参数并最小化第一损失,在第一损失达到第一阈值的情况下,输出待训练的文本处理模型的文本结构判断网络的网络参数。以及,可以通过梯度下降法更新文本处理模型的文本结构生成网络的网络参数并最小化第二损失,在第二损失达到第二阈值的情况下,输出待训练的文本处理模型的文本结构生成网络的网络参数。以及,可以通过梯度下降法更新文本处理模型的文本主题识别网络的网络参数并最小化第三损失,在第三损失达到第三阈值的情况下,输出待训练的文本处理模型的文本主题识别网络的网络参数,进而获得训练后的文本处理模型。
可选地,还可以基于第一损失X1、第二损失X2和第三损失X3,先构建第五损失Y2,其中,第五损失Y2=αX1+βX2+γX3,α为第一损失X1的权重,β为第二损失X2的权重,γ为第三损失X3的权重。然后通过梯度下降法更新文本处理模型的网络参数并最小化第五损失Y2,输出文本处理模型的网络参数,进而获得训练后的文本处理模型。
接下来示出一个例子的训练后的文本处理模型的应用场景,该例子中,参照图6,包括:
将待处理文本输入训练后的文本处理模型中的文本结构判断网络。
利用训练后的文本处理模型中的文本结构判断网络,输出待处理文本是否能够进行结构化处理的判定结果,在待处理文本不能够进行结构化处理的情况下,流程结束。
在待处理文本能够进行结构化处理的情况下,将待处理文本输入训练后的文本处理模型中的文本结构生成网络,利用训练后的文本处理模型中的文本结构生成网络输出待处理文本在各个文本层级分别对应的文本内容。将待处理文本输入训练后的文本处理模型中的文本主题识别网络,利用训练后的文本处理模型中的文本主题识别网络,输出待处理文本的文本主题。
如图7所示,其是本申请实施例提供的一种文本处理模型的训练方法,本实施例主要以该方法应用于电子设备来举例说明。如图7所示,该文本处理模型的训练方法可以包括如下步骤7100~步骤7500,以下予以详细说明。
步骤7100,获取样本文本和所述样本文本的标注信息;所述标注信息包括第一标注信息、第二标注信息和第三标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容,所述第三标注信息为所述样本文本的文本主题。
步骤7200,根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失。
步骤7300,根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失。
步骤7400,利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失。
步骤7500,基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
可选地,可以通过梯度下降法更新文本处理模型的文本结构判断网络的网络参数并最小化第一损失,在第一损失达到第一阈值的情况下,输出待训练的文本处理模型的文本结构判断网络的网络参数。以及,可以通过梯度下降法更新文本处理模型的文本结构生成网络的网络参数并最小化第二损失,在第二损失达到第二阈值的情况下,输出待训练的文本处理模型的文本结构生成网络的网络参数。以及,可以通过梯度下降法更新文本处理模型的文本主题识别网络的网络参数并最小化第三损失,在第三损失达到第三阈值的情况下,输出待训练的文本处理模型的文本主题识别网络的网络参数,进而获得训练后的文本处理模型。
可选地,还可以基于第一损失X1、第二损失X2和第三损失X3,先构建第五损失Y2,其中,第五损失Y2=αX1+βX2+γX3,α为第一损失X1的权重,β为第二损失X2的权重,γ为第三损失X3的权重。然后通过梯度下降法更新文本处理模型的网络参数并最小化第五损失Y2,输出文本处理模型的网络参数,进而获得训练后的文本处理模型。
本申请实施例中,基于样本文本和样本文本的标注信息,对待训练的文本处理模型进行训练,获得训练后的文本处理模型,通过训练后的文本处理模型可对待处理文本在各个文本层级分别对应的文本内容进行排版处理,避免了用户手动排版的操作繁琐。
接下来示出一个例子的文本处理模型的训练方法,参照图8所示,该文本处理模型的训练方法包括:
获取样本文本和样本文本的标注信息。
第一方面,根据待训练的文本处理模型中的文本结构判断网络输出的样本文本是否能够进行结构化处理的判定结果与第一标注信息之间的差异,构建第一损失。通过梯度下降法更新文本处理模型的文本结构判断网络的网络参数,并判断第一损失是否达到第一阈值,是的话,结束训练,反之,继续训练。
第二方面,根据待训练的文本处理模型中的文本结构生成网络输出的样本文本在各个文本层级分别对应的文本内容与第二标注信息之间的差异,构建第二损失。通过梯度下降法更新文本处理模型的文本结构生成网络的网络参数,并判断第二损失是否达到第二阈值,是的话,结束训练,反之,继续训练。
第三方面,利用待训练的文本处理模型中的文本主题识别网络输出的样本文本的文本主题与第三标注信息之间的差异,构建第三损失。通过梯度下降法更新文本处理模型的文本结构生成网络的网络参数,并判断第三损失是否达到第三阈值,是的话,结束训练,反之,继续训练。
本申请实施例提供的文本处理方法,执行主体可以为文本处理装置,本申请实施例中以文本处理装置执行文本处理方法为例,说明本申请实施例提供的文本处理装置。
本申请实施例提供了一种文本处理装置900,如图9所示,包括:
第一获取模块901,用于获取待处理文本;
确定模块902,用于利用训练后的文本处理模型,确定所述待处理文本在各个文本层级分别对应的文本内容;
排版模块903,用于根据各个所述文本层级分别对应的文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得目标文本。
在一个实施例中,确定模块902,具体用于利用训练后的文本处理模型中的文本结构判断网络,输出所述待处理文本是否能够进行结构化处理的判定结果;在所述待处理文本能够进行结构化处理的情况下,利用训练后的文本处理模型中的文本结构生成网络,输出所述待处理文本在各个所述文本层级分别对应的文本内容。
在一个实施例中,装置900还包括输出模块(图中未示出),用于在所述待处理文本能够进行结构化处理的情况下,利用训练后的文本处理模型中的文本主题识别网络,输出所述待处理文本的文本主题;
排版模块903,具体用于根据各个所述文本层级分别对应的目标文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得所述目标文本;所述目标文本样式与所述文本主题相关联。
在一个实施例中,装置900还包括文本处理模型的训练模块,用于:
获取样本文本和所述样本文本的标注信息;所述标注信息包括第一标注信息和第二标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容;
根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失;
根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失;
基于所述第一损失和所述第二损失更新待训练的文本处理模型的网络参数。
在一个实施例中,所述标注信息还包括第三标注信息,所述第三标注信息为所述样本文本的文本主题;
文本处理模型的训练模块,还用于利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失;基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
在本申请的实施例中,在获取待处理文本之后,利用训练后的文本处理模型,确定出待处理文本在各个文本层级分别对应的文本内容,根据各个文本层级分别对应的文本样式,对待处理文本在各个文本层级分别对应的文本内容进行排版处理,获得目标文本。这样,通过训练后的文本处理模型可对待处理文本在各个文本层级分别对应的文本内容进行排版处理,避免了用户手动排版的操作繁琐。
本申请实施例中的文本处理装置可以是电子设备,也可以是电子设备中的部件,例如集成电路或芯片。该电子设备可以是终端,也可以为除终端之外的其他设备。示例性的,电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、移动上网装置(Mobile Internet Device,MID)、增强现实(augmented reality,AR)/虚拟现实(virtualreality,VR)设备、机器人、可穿戴设备、超级移动个人计算机(ultra-mobile personalcomputer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,还可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personalcomputer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的文本处理装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的文本处理装置能够实现图1的方法实施例实现的各个过程,为避免重复,这里不再赘述。
本申请实施例提供的文本处理模型的训练方法,执行主体可以为文本处理模型的训练装置,本申请实施例中以文本处理模型的训练装置执行文本处理模型的训练方法为例,说明本申请实施例提供的文本处理模型的训练装置。
本申请实施例提供了一种文本处理模型的训练装置1000,如图10所示,包括:
第二获取模块1001,用于获取样本文本和所述样本文本的标注信息;所述标注信息包括第一标注信息、第二标注信息和第三标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容,所述第三标注信息为所述样本文本的文本主题;
第一构建模块1002,用于根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失;
第二构建模块1003,用于根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失;
第三构建模块1004,用于利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失;
更新模块1005,用于基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
在本申请的实施例中,基于样本文本和样本文本的标注信息,对待训练的文本处理模型进行训练,获得训练后的文本处理模型,通过训练后的文本处理模型可对待处理文本在各个文本层级分别对应的文本内容进行排版处理,避免了用户手动排版的操作繁琐。
本申请实施例中的文本处理模型的训练装置可以是电子设备,也可以是电子设备中的部件,例如集成电路或芯片。该电子设备可以是终端,也可以为除终端之外的其他设备。示例性的,电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、移动上网装置(Mobile Internet Device,MID)、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、机器人、可穿戴设备、超级移动个人计算机(ultra-mobilepersonal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,还可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的文本处理模型的训练装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的文本处理模型的训练装置能够实现图7的方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选地,如图11所示,本申请实施例还提供一种电子设备1100,包括处理器1101和存储器1102,存储器1102上存储有可在所述处理器1101上运行的程序或指令,该程序或指令被处理器1101执行时实现上述文本处理方法实施例的各个步骤或者文本处理模型的训练方法实施例的各个步骤,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图12为实现本申请实施例的一种电子设备的硬件结构示意图。
该电子设备1200包括但不限于:射频单元1201、网络模块1202、音频输出单元1203、输入单元1204、传感器1205、显示单元1206、用户输入单元1207、接口单元1208、存储器1209、处理器1210等部件。
本领域技术人员可以理解,电子设备1200还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1210逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图12中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,处理器1210,用于获取待处理文本;利用训练后的文本处理模型,确定所述待处理文本在各个文本层级分别对应的文本内容;根据各个所述文本层级分别对应的文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得目标文本。
根据本申请实施例,在获取待处理文本之后,利用训练后的文本处理模型,确定出待处理文本在各个文本层级分别对应的文本内容,根据各个文本层级分别对应的文本样式,对待处理文本在各个文本层级分别对应的文本内容进行排版处理,获得目标文本。这样,通过训练后的文本处理模型可对待处理文本在各个文本层级分别对应的文本内容进行排版处理,避免了用户手动排版的操作繁琐。
可选地,处理器1210,还用于利用训练后的文本处理模型中的文本结构判断网络,输出所述待处理文本是否能够进行结构化处理的判定结果;在所述待处理文本能够进行结构化处理的情况下,利用训练后的文本处理模型中的文本结构生成网络,输出所述待处理文本在各个所述文本层级分别对应的文本内容。
可选地,处理器1210,还用于在所述待处理文本能够进行结构化处理的情况下,利用训练后的文本处理模型中的文本主题识别网络,输出所述待处理文本的文本主题;根据各个所述文本层级分别对应的目标文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得所述目标文本;所述目标文本样式与所述文本主题相关联。
可选地,处理器1210,还用于获取样本文本和所述样本文本的标注信息;所述标注信息包括第一标注信息和第二标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容;根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失;根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失;基于所述第一损失和所述第二损失更新待训练的文本处理模型的网络参数。
可选地,所述标注信息还包括第三标注信息,所述第三标注信息为所述样本文本的文本主题。处理器1210,还用于利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失;基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
或者,处理器1210,用于获取样本文本和所述样本文本的标注信息;所述标注信息包括第一标注信息、第二标注信息和第三标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容,所述第三标注信息为所述样本文本的文本主题;根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失;根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失;利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失;基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
根据本申请实施例,基于样本文本和样本文本的标注信息,对待训练的文本处理模型进行训练,获得训练后的文本处理模型,通过训练后的文本处理模型可对待处理文本在各个文本层级分别对应的文本内容进行排版处理,避免了用户手动排版的操作繁琐。
应理解的是,本申请实施例中,输入单元1204可以包括图形处理器(GraphicsProcessing Unit,GPU)12041和麦克风12042,图形处理器12041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元1206可包括显示面板12061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板12061。用户输入单元1207包括触控面板12071以及其他输入设备12072中的至少一种。触控面板12071,也称为触摸屏。触控面板12071可包括触摸检测装置和触摸控制器两个部分。其他输入设备12072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
存储器1209可用于存储软件程序以及各种数据。存储器1209可主要包括存储程序或指令的第一存储区和存储数据的第二存储区,其中,第一存储区可存储操作系统、至少一个功能所需的应用程序或指令(比如声音播放功能、图像播放功能等)等。此外,存储器1209可以包括易失性存储器或非易失性存储器,或者,存储器1209可以包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data Rate SDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DRRAM)。本申请实施例中的存储器1209包括但不限于这些和任意其它适合类型的存储器。
处理器1210可包括一个或多个处理单元;可选地,处理器1210集成应用处理器和调制解调处理器,其中,应用处理器主要处理涉及操作系统、用户界面和应用程序等的操作,调制解调处理器主要处理无线通信信号,如基带处理器。可以理解的是,上述调制解调处理器也可以不集成到处理器1210中。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述文本处理方法实施例的各个过程或者文本处理模型的训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器ROM、随机存取存储器RAM、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述文本处理方法实施例的各个过程或者文本处理模型的训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
本申请实施例提供一种计算机程序产品,该程序产品被存储在存储介质中,该程序产品被至少一个处理器执行以实现如上述文本处理方法实施例的各个过程或者文本处理模型的训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (10)
1.一种文本处理方法,其特征在于,所述方法包括:
获取待处理文本;
利用训练后的文本处理模型,确定所述待处理文本在各个文本层级分别对应的文本内容;
根据各个所述文本层级分别对应的文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得目标文本。
2.根据权利要求1所述的方法,其特征在于,所述利用训练后的文本处理模型,确定所述待处理文本在各个文本层级分别对应的文本内容,包括:
利用训练后的文本处理模型中的文本结构判断网络,输出所述待处理文本是否能够进行结构化处理的判定结果;
在所述待处理文本能够进行结构化处理的情况下,利用训练后的文本处理模型中的文本结构生成网络,输出所述待处理文本在各个所述文本层级分别对应的文本内容。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
在所述待处理文本能够进行结构化处理的情况下,利用训练后的文本处理模型中的文本主题识别网络,输出所述待处理文本的文本主题;
所述根据各个所述文本层级分别对应的文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得目标文本,包括:
根据各个所述文本层级分别对应的目标文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得所述目标文本;所述目标文本样式与所述文本主题相关联。
4.根据权利要求1所述的方法,其特征在于,所述文本处理模型的训练方式包括:
获取样本文本和所述样本文本的标注信息;所述标注信息包括第一标注信息和第二标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容;
根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失;
根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失;
基于所述第一损失和所述第二损失更新待训练的文本处理模型的网络参数。
5.根据权利要求4所述的方法,其特征在于,所述标注信息还包括第三标注信息,所述第三标注信息为所述样本文本的文本主题;
所述方法还包括:
利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失;
所述基于所述第一损失和所述第二损失更新待训练的文本处理模型的网络参数,包括:
基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
6.一种文本处理模型的训练方法,其特征在于,所述方法包括:
获取样本文本和所述样本文本的标注信息;所述标注信息包括第一标注信息、第二标注信息和第三标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容,所述第三标注信息为所述样本文本的文本主题;
根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失;
根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失;
利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失;
基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
7.一种文本处理装置,其特征在于,所述装置包括:
第一获取模块,用于获取待处理文本;
确定模块,用于利用训练后的文本处理模型,确定所述待处理文本在各个文本层级分别对应的文本内容;
排版模块,用于根据各个所述文本层级分别对应的文本样式,对所述待处理文本在各个所述文本层级分别对应的文本内容进行排版处理,获得目标文本。
8.一种文本处理模型的训练装置,其特征在于,
第二获取模块,用于获取样本文本和所述样本文本的标注信息;所述标注信息包括第一标注信息、第二标注信息和第三标注信息,所述第一标注信息为所述样本文本是否能够进行结构化处理的判定结果,所述第二标注信息为所述样本文本在各个所述文本层级分别对应的文本内容,所述第三标注信息为所述样本文本的文本主题;
第一构建模块,用于根据待训练的文本处理模型中的文本结构判断网络输出的所述样本文本是否能够进行结构化处理的判定结果与所述第一标注信息之间的差异,构建第一损失;
第二构建模块,用于根据待训练的文本处理模型中的文本结构生成网络输出的所述样本文本在各个所述文本层级分别对应的文本内容与所述第二标注信息之间的差异,构建第二损失;
第三构建模块,用于利用待训练的文本处理模型中的文本主题识别网络输出的所述样本文本的文本主题与所述第三标注信息之间的差异,构建第三损失;
更新模块,用于基于所述第一损失、所述第二损失和所述第三损失更新待训练的文本处理模型的网络参数。
9.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1-5任一项所述的文本处理方法的步骤或者权利要求6所述的文本处理模型的训练方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1-5任一项所述的文本处理方法的步骤或者权利要求6所述的文本处理模型的训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310693219.3A CN117010326A (zh) | 2023-06-12 | 2023-06-12 | 文本处理方法及装置、文本处理模型的训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310693219.3A CN117010326A (zh) | 2023-06-12 | 2023-06-12 | 文本处理方法及装置、文本处理模型的训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117010326A true CN117010326A (zh) | 2023-11-07 |
Family
ID=88575234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310693219.3A Pending CN117010326A (zh) | 2023-06-12 | 2023-06-12 | 文本处理方法及装置、文本处理模型的训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117010326A (zh) |
-
2023
- 2023-06-12 CN CN202310693219.3A patent/CN117010326A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111880668A (zh) | 输入显示方法、装置及电子设备 | |
CN112181253A (zh) | 信息显示方法、装置和电子设备 | |
CN114374663B (zh) | 消息处理方法和消息处理装置 | |
CN115061580A (zh) | 输入方法、装置、电子设备及可读存储介质 | |
CN113593614B (zh) | 图像处理方法及装置 | |
CN113283220A (zh) | 笔记记录方法、装置、设备及可读存储介质 | |
CN115309487A (zh) | 显示方法、装置、电子设备和可读存储介质 | |
CN116095234A (zh) | 图像生成方法、装置、电子设备和存储介质 | |
CN113362426B (zh) | 图像编辑方法和图像编辑装置 | |
CN116129210A (zh) | 特征提取模型的训练方法、特征提取方法及装置 | |
CN117010326A (zh) | 文本处理方法及装置、文本处理模型的训练方法及装置 | |
CN113010072A (zh) | 搜索方法、装置、电子设备及可读存储介质 | |
CN117194653A (zh) | 文字处理方法和装置 | |
CN116955695A (zh) | 音频文件的显示方法和显示装置 | |
CN116708342A (zh) | 语音消息处理方法和装置 | |
CN117311884A (zh) | 内容显示方法、装置、电子设备及可读存储介质 | |
CN114995698A (zh) | 图像处理方法、装置 | |
CN117235319A (zh) | 显示方法、装置、电子设备和存储介质 | |
CN115481598A (zh) | 文档显示方法及装置 | |
CN115904095A (zh) | 信息输入方法、装置、电子设备及可读存储介质 | |
CN117311521A (zh) | 信息输入方法、装置、电子设备及可读存储介质 | |
CN117093297A (zh) | 消息识别方法、装置 | |
CN115454263A (zh) | 文字输入方法、装置、电子设备及存储介质 | |
CN114995663A (zh) | 词语的确定方法和电子设备 | |
CN116975337A (zh) | 图像搜索方法、装置、电子设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |