CN113553857A - 文本处理方法和文本处理装置 - Google Patents

文本处理方法和文本处理装置 Download PDF

Info

Publication number
CN113553857A
CN113553857A CN202110742760.XA CN202110742760A CN113553857A CN 113553857 A CN113553857 A CN 113553857A CN 202110742760 A CN202110742760 A CN 202110742760A CN 113553857 A CN113553857 A CN 113553857A
Authority
CN
China
Prior art keywords
text
word
processed
encoded
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110742760.XA
Other languages
English (en)
Other versions
CN113553857B (zh
Inventor
丁思宇
王硕寰
孙宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110742760.XA priority Critical patent/CN113553857B/zh
Publication of CN113553857A publication Critical patent/CN113553857A/zh
Application granted granted Critical
Publication of CN113553857B publication Critical patent/CN113553857B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供了一种文本处理方法,涉及人工智能领域,尤其涉及自然语言处理领域。具体实现方案为:对待处理文本进行编码,得到编码后的文本数据,其中编码后的文本数据包括与待处理文本中的每个字相对应的编码数据以及与每个字对应的位置标识符ID;以及将编码后的文本数据输入自然语言处理模型,得到文本的处理结果;对待处理文本进行编码包括:针对待处理文本中的每个字,生成随机的自然数,作为该字的位置ID,其中,针对待处理文本中的相邻字,相邻字的位置ID的数值之间的差值为非零自然数。本公开还提供了一种文本处理装置、一种电子设备、一种存储有计算机指令的非瞬时性计算机可读存储介质以及一种计算机程序产品。

Description

文本处理方法和文本处理装置
技术领域
本公开涉及人工智能领域,尤其涉及自然语言处理领域,具体涉及一 种文本处理方法、文本处理装置、电子设备、存储有计算机指令的非瞬时 计算机可读存储介质、以及计算机程序产品。
背景技术
近年来,随着自然语言处理(Natural language processing,NLP)技 术的不断发展,基于大规模语料的预训练语言模型+下游任务微调的模式 已逐渐成为了主流的研究模式。其中,以Transformer为基础架构的模型(例 如,Bert)已几乎完全取代过去以RNN(Recurrent Neural Network)为基 础架构的模型(例如,ELMo),并且大幅提升了各类NLP任务的效果(例 如,文本匹配、文本生成、情感分类、文本摘要、问答、检索等)。
发明内容
本公开提供了一种文本处理方法、文本处理装置、电子设备、存储有 计算机指令的非瞬时计算机可读存储介质、以及计算机程序产品。
根据本公开的一方面,提供了一种文本处理方法,包括:
对待处理文本进行编码,得到编码后的文本数据,其中所述编码后的 文本数据包括与所述待处理文本中的每个字相对应的编码数据以及与每 个字对应的位置标识符ID;以及
将所述编码后的文本数据输入自然语言处理模型,得到所述文本的处 理结果;
其中,所述对待处理文本进行编码包括:针对所述待处理文本中的每 个字,生成随机的自然数,作为该字的位置ID,
其中,针对所述待处理文本中的相邻字,所述相邻字的位置ID的数 值之间的差值为非零自然数。
根据本公开的另一方面,提供了一种文本处理装置,包括:
编码模块,用于对待处理文本进行编码,得到编码后的文本数据,其 中所述编码后的文本数据包括与所述待处理文本中的每个字相对应的编 码数据以及与每个字对应的位置标识符ID;以及
自然语言处理模块,被配置为将所述编码后的文本数据输入自然语言 处理模型,得到所述文本的处理结果;
其中,所述编码模块包括生成子模块,用于针对所述待处理文本中的 每个字,生成随机的自然数,作为该字的位置ID,
其中,针对所述待处理文本中的相邻字,所述相邻字的位置ID的数 值之间的差值为非零自然数。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被 所述至少一个处理器执行,以使所述至少一个处理器能够执行上述文本处 理方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算 机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述文本 处理方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程 序,所述计算机程序在被处理器执行时实现上述文本处理方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键 或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下 的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是一种绝对位置编码方法的示意图;
图2是根据本公开实施例的用于文本处理的系统架构的示意图;
图3是一种对待处理文本进行编码的实施例的示意图;
图4是根据本公开实施例的文本处理方法的示意流程图。
图5是根据本公开实施例的对待处理文本进行编码的一个实施例的示 意图;
图6是根据本公开实施例的对待处理文本进行编码的另一实施例的示 意图;
图7是根据本公开实施例的对待处理文本进行编码的另一实施例的示 意图;
图8是用来实现本公开实施例的文本处理方法的文本处理装置的框图; 以及
图9是用来实现本公开实施例的文本处理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实 施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本 领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和 修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的 描述中省略了对公知功能和结构的描述。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。 在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件 的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部 件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通 常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有 与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来 解释。
在使用类似于“使、B和C等中至少一个”这样的表述的情况下,一般 来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如, “具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具 有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、 B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的 情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以 解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具 有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、 和/或具有A、B、C的系统等)。
在自然语言处理技术中,多头注意力机制(Multi-Head Attention)作 为Transformer的主要结构之一,具备强大的文本局部和全局信息的捕获 能力,是Transformer强大能力的保证。不同于RNN、LSTM等序列编码 网络具备天然顺序结构的学习能力,多头注意力机制不能区分文本中各个 字的位置关系。但是,对于任何一门语言,各个字在句子中的位置以及排 列顺序是非常重要的,它们不仅是一个句子的语法结构的组成部分,更是 表达语义的重要概念。
一个词语在句子中的位置或排列顺序不同,可能会使得整个句子的意 思发生改变。例如:(1)从上海飞到北京的飞机;(2)从北京飞到上海 的飞机,两句话由完全相同的字组成,但却表达了相反的含义。因此, Transformer需要额外引入位置信息编码(Positional Encoding)来帮助文 本语义学习。
例如,在将文本输入到自然语言处理模型中以进行自然语言处理之前, 首先对文本中的每个字进行编码。在编码过程中,为了区分文本中各个字 的位置关系,理想地,需要针对每个字引入对应的位置向量或者与位置相 关的参数。由此,当自然语言处理模型对文本中的每个字进行自然语言处 理时,可以借助于针对每个字的位置向量区分文本中各个字的位置关系。
基于理论分析,理想的位置编码需要具备如下四个特性:
(1)直推式:位置编码的长度可扩展,例如:预训练阶段文本平均 长度为600,而预训练阶段仅为512;
(2)数据驱动:位置编码是可学习的,而非固定不变的常量;
(3)参数有效性:位置编码引入的参数不能过大,不能明显增加模 型参数;以及
(4)训练有效性性:不能明显减小模型的运行速度,增加模型的运 行时间。
关于Transformer的位置编码的研究主要分为两个方向:绝对位置编 码和相对位置编码。绝对位置编码的一般做法是将位置信息融入到输入中。
在绝对位置编码中,一种方法在于:在输入文本的第k个字的词向量 Xk中加入位置向量Pk,变为Xk+Pk,其中Pk可以采用训练式或非训练式 的方式,并且只依赖于位置编号k,以下将参考图1进行说明。
图1是一种绝对位置编码方法的示意图。
在输入文本以后,对文本中的每个字进行编码。
在框101处,对文本中的每个字C1至Cn对应的位置进行位置编码,获 得位置向量P1至Pn,其中n为文本中的字的数量。
在框102处,对文本中的每个字进行编码,从而获得对应的词向量X1至 Xn
在框103处,对在框101和框102中获得的对应字的位置向量和词向 量进行组合,以获得组合后的待被进行自然语言处理的数据X1+P1至 Xn+Pn
在框104处,将在框103中获得的组合后的数据输入到自然语言处理 模型中,以用于进一步的处理。
在相对位置编码中,相对位置不引入输入文本中每个字的位置向量, 而是在计算注意力机制(Attention)的时候考虑当前位置与被注意的位置 的相对距离。
绝对位置编码和相对位置编码均不能全部满足上述四个特性。
本公开的实施例提供了一种在绝对位置编码的基础上改进的位置编 码,以及提供了应用该位置编码的文本处理方法。该文本处理方法可以包 括:对待处理文本进行编码,得到编码后的文本数据,其中所述编码后的 文本数据包括与所述待处理文本中的每个字相对应的编码数据以及与每 个字对应的位置标识符ID;以及将所述编码后的文本数据输入自然语言处 理模型,得到所述文本的处理结果。所述对待处理文本进行编码包括:针对所述待处理文本中的每个字,生成随机的自然数,作为该字的位置ID, 其中,针对所述待处理文本中的相邻字,所述相邻字的位置ID的数值之 间的差值为非零自然数。
以下将参考附图并结合具体实施例详细阐述本公开。
图2是根据本公开实施例的可以执行文本处理方法的系统架构200的 示意图。
需要注意的是,图2所示仅为可以应用本公开实施例的系统架构的示 例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开 实施例不可以用于其他设备、系统、环境或场景。
如图2所示,根据该实施例的系统架构200可以包括终端设备201、 202、203,网络204和服务器205。网络204用以在终端设备201、202、 203和服务器205之间提供通信链路的介质。网络204可以包括各种连接 类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备201、202、203通过网络204与服务器205交 互,以接收或发送消息等。终端设备201、202、203上可以安装有各种通 讯客户端应用,例如用户反馈应用、企业办公软件、企业内通信软件等。
终端设备201、202、203可以是具有显示屏并且支持网页浏览的各种 电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式 计算机等等。
服务器205可以是提供各种服务的服务器。
需要说明的是,本公开实施例所提供的文本处理方法一般可以由服务 器205执行。相应地,实现本公开实施例所提供的文本处理方法的单元或 模块可以设置于服务器205中。本公开实施例所提供的文本处理方法也可 以由不同于服务器205且能够与终端设备201、202、203和/或服务器205 通信的服务器或服务器集群执行。相应地,实现本公开实施例所提供的文 本处理方法的单元或模块也可以设置于不同于服务器105且能够与终端设 备201、202、203和/或服务器205通信的服务器或服务器集群中。
应该理解,图2中的终端设备、网络和服务器的数目仅仅是示意性的。 根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图3是一种对待处理文本进行编码的实施例的示意图。
为了使得技术方案更加清楚简洁,在此仅描述对于文本进行位置编码, 而省略对文本进行词向量编码的描述。
在示意图300中,框301进一步详细示出了位置编码的操作。
在框301中,C1至Cn为文本中的每个字,n为大于1的整数。
在进行位置编码时,针对文本中的每个字生成自然数,作为该字的位 置ID。
如图3所示,在绝对位置编码中,针对文本中的第一个字的位置ID 的数值为“0”,针对第二个字的位置ID的数值为“1”,针对第三个字的位置 ID的数值为“2”,以此类推,针对第n-1个字的位置ID的数值为“n-2”,针 对第n个字的位置ID的数值为“n-1”。
因此,在图3所示绝对位置编码中,文本中的第一个字的位置ID的 数值为0,并且相邻字的位置ID的数值之间的差值为1。
图4是根据本公开实施例的文本处理方法的示意流程图。如图4所示, 根据本公开实施例的文本处理方法400例如可以包括如下操作。
在操作S401中,对待处理文本进行编码,得到编码后的文本数据, 其中编码后的文本数据包括与待处理文本中的每个字相对应的编码数据 以及与每个字对应的位置标识符ID。
例如,对待处理文本进行编码包括:针对待处理文本中的每个字,生 成随机的自然数,作为该字的位置ID,其中,针对待处理文本中的相邻字, 相邻字的位置ID的数值之间的差值为非零自然数。
在示例性实施例中,与待处理文本中的每个字相对应的编码数据可以 是该字的词向量。在示例性实施例中,与每个字对应的位置标识符ID可 以是位置向量。
在操作S402中,将编码后的文本数据输入自然语言处理模型,得到 文本的处理结果。
本公开的实施例实现了一种随机位置编码。其中,将绝对位置编码中 的以0作为起始位置标识符ID的数值、以1作为相邻字的位置ID的数值 之间的差值改进为以随机自然数作为起始位置标识符ID的数值、以非零 自然数作为相邻字的位置ID的数值之间的差值,由此能够实现一种满足 直推式、数据驱动、参数有效性和训练有效性的随机位置编码。
以下将参考图5至图7来详细描述根据本公开实施例的随机位置编码。
图5是根据本公开实施例的对待处理文本进行编码的一个实施例的示 意图500。位置编码的起点位置的数值不是0,且相邻位置的数值之间的 差值是1。
在框501中,C1至Cn为文本中的每个字。
在对待处理文本进行根据本公开实施例的随机位置编码时,针对文本 中的第一个字生成随机的自然数,作为起始字的位置ID。
如图5所示,在根据本公开实施例的随机位置编码中,针对文本中的 第一个字的位置ID的数值为“4”,针对第二个字的位置ID的数值为“5”, 针对第三个字的位置ID的数值为“6”,以此类推,针对第n-1个字的位置 ID的数值为“n+2”,针对第n个字的位置ID的数值为“n+3”。
在图5中将“4”示出为第一个字的位置ID的数值,但是这仅是示例, 本公开不限于此。
针对文本中的第一个字的位置ID的数值可以是非零的任意自然数, 而不是如图4中所示的根据现有技术的随机位置编码那样,以“0”作为针 对第一个字的位置ID的数值。
在图5中,相邻字的位置ID的数值之间的差值为1,但是这仅是示 例,本公开不限于此。
根据本公开的第一实施例的随机位置编码中的相邻字的位置ID的数 值之间的差值可以是其他固定的自然数。
图6是根据本公开实施例的对待处理文本进行随机位置编码的另一实 施例的示意图600。
与图5所示的实施例不同,图6所示示例中,在对待处理文本进行随 机位置编码时,针对文本中的相邻字生成的作为位置ID的随机自然数之 间的差值可以是任意非零自然数。
如图6所示,在根据本公开实施例的随机位置编码中,针对文本中的 第一个字的位置ID的数值为“4”,针对第二个字的位置ID的数值为“7”, 针对第三个字的位置ID的数值为“8”,以此类推,针对第n-1个字的位置 ID的数值为“n+6”,针对第n个字的位置ID的数值为“n+9”。
在图6中,第一个字的位置ID的数值“4”与第二个字的位置ID的数 值“7”之间的差值为3。
第二个字的位置ID的数值“7”与第三个字的位置ID的数值“8”之间的 差值为1。
第三个字的位置ID的数值“8”与第四个字的位置ID的数值“11”之间 的差值为3。
第四个字的位置ID的数值“11”与第五个字的位置ID的数值“14”之间 的差值为3。
第五个字的位置ID的数值“14”与第六个字的位置ID的数值“15”之间 的差值为1。
第n-1个字的位置ID的数值“n+6”与第n个字的位置ID的数值“n+9” 之间的差值为3。
基于此,在根据本公开实施例的随机位置编码中,相邻字的位置ID 的数值之间的差值为随机的非零自然数,是可变的数值,而不是以“1”作 为相邻字的位置ID的数值之间的差值。
在图6中,相邻字的位置ID的数值之间的差值仅是示例,本公开不 限于此。
图7是根据本公开实施例的对待处理文本进行编码的另一实施例的示 意图700。
与图5和图6所示的实施例不同,如图7所示,在对待处理文本进行 随机位置编码时,针对文本中的第一个字的位置ID可以是非零的任意自 然数,并且针对文本中的相邻字生成的作为位置ID的随机自然数之间的 差值可以是任意非零自然数。
此外,当文本中的第k(其中,1≤k≤n)个字的位置ID的数值达 到预定数值时,从第k+1个字开始,重新执行根据本公开实施例的随机位 置编码。
在示例性实施例中,预定数值可以是自然语言处理模型支持的文本的 最大编码长度。
在示例性实施例中,针对每个字的位置ID的数值被编码为0至预定 数值之间的数值。
如图7所示,在根据本公开实施例的随机位置编码中,针对文本中的 第一个字的位置ID的数值为“4”,针对第二个字的位置ID的数值为“7”, 针对第三个字的位置ID的数值为“8”,针对第四个字的位置ID的数值为 15。
在示例性实施例中,例如15即为自然语言处理模型支持的文本的最 大编码长度。
当针对第四个字的位置ID的数值达到15时,从第五个字开始,重新 执行根据本公开实施例的随机位置编码。
如图7所示,第五个字的位置ID的数值为“0”,第六个字的位置ID 的数值为“2”……,第n-1个字的位置ID的数值为“n-6”,并且第n个字的 位置ID的数值为“n+1”。
其中,例如,“n-6”和“n+1”均为小于15的数值。
本领域技术人员应当理解,图7中示出的各个字的位置ID的数值仅 为示例,本公开不限于此。
本公开的实施例通过将一种绝对位置编码改进为根据本公开实施例 的起始位置ID的数值为非零随机自然数以及相邻字的位置ID的数值之间 的差值为非零随机自然数的随机位置编码,由此使得根据本公开实施例的 随机位置编码满足理想位置编码的数据驱动、参数有效性和训练有效性这 三种特性,同时由于随机位置编码引入了可循环性,模型被允许在有限编 码长度范围内对无限长文本进行位置编码,满足了理想位置编码的直推式 特性。
图8是用来实现本公开实施例的文本处理方法的文本处理装置800的 框图。
如图8所示,文本处理装置800可以包括编码模块801和自然语言处 理模块802。
编码模块801可以用于对待处理文本进行编码,得到编码后的文本数 据,其中编码后的文本数据包括与待处理文本中的每个字相对应的编码数 据以及与每个字对应的位置标识符ID。
其中,编码模块801还包括生成子模块(未示出),用于针对待处理 文本中的每个字,生成随机的自然数,作为该字的位置ID,其中,针对待 处理文本中的相邻字,相邻字的位置ID的数值之间的差值为非零自然数。
自然语言处理模块802可以被配置为将编码后的文本数据输入自然语 言处理模型,得到文本的处理结果。
除了以上编码模块801和自然语言处理模块802之外,用于检测静态 画面的装置还可以包括其他单元、模块和子模块,用于对应地执行上述各 种操作。
在此为了防止冗余,不再对用于执行上述各种操作的单元、模块和子 模块进行重复描述。
本公开的实施例通过对绝对位置编码进行了改进,实现了随机位置编 码,将绝对位置编码中的以0作为起始位置标识符ID的数值、以1作为 相邻字的位置ID的数值之间的差值改进为以随机自然数作为起始位置标 识符ID的数值、以非零自然数作为相邻字的位置ID的数值之间的差值, 由此能够实现同时满足直推式、数据驱动、参数有效性和训练有效性性这 四种特性的随机位置编码。
根据本公开的实施例的模块中的任意多个、或其中任意多个的至少部 分功能可以在一个模块中实现。根据本公开实施例的模块中的任意一个或 多个可以被拆分成多个模块来实现。根据本公开实施例的模块中的任意一 个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列 (FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装 上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的 任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种 实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本 公开实施例的模块中的一个或多个可以至少被部分地实现为计算机程序 模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,编码模块801和自然语言处理模块802可以合并在一个模块/ 单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成 多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块 /单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功 能相结合,并在一个模块/单元/子单元中实现。根据本公开的实施例,编 码模块801和自然语言处理模块802中的至少一个可以至少被部分地实现 为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、 片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可 以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实 现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种 的适当组合来实现。或者,编码模块801和自然语言处理模块802中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被 运行时,可以执行相应的功能。
需要说明的是,本公开的实施例中装置部分实施方式与本公开的实施 例中方法部分实施方式对应相同或类似,装置部分实施方式的描述具体请 参考方法部分实施方式的描述,在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储 介质和一种计算机程序产品。
图9示出了可以用来实施本公开实施例的文本处理方法的示例电子设 备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如, 膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服 务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式 的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和 其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的 功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的 实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存 储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存 储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在 RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元 901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O) 接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906, 例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等; 存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制 解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网 的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理 组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图 形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机 器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的 处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法、处理和操作,例如方法300。例如,在一些实施例中,方法300可被实现 为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。 在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通 信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的方法300的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当 的方式(例如,借助于固件)而被配置为执行方法300。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路 系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、 专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设 备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些 各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者 多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/ 或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储 系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将 数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出 装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的 任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其 他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控 制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可 以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机 器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含 或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设 备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读 储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电 磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组 合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、 可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑 盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的 任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术, 该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线 管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠 标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算 机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的 反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉 反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入) 来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如, 作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、 或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器 的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处 描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部 件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络 的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此 并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具 有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或 删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地 执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望 的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术 人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、 子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和 改进等,均应包含在本公开保护范围之内。

Claims (11)

1.一种文本处理方法,包括:
对待处理文本进行编码,得到编码后的文本数据,其中所述编码后的文本数据包括与所述待处理文本中的每个字相对应的编码数据以及与每个字对应的位置标识符ID;以及
将所述编码后的文本数据输入自然语言处理模型,得到所述文本的处理结果;
其中,所述对待处理文本进行编码包括:针对所述待处理文本中的每个字,生成随机的自然数,作为该字的位置ID,
其中,针对所述待处理文本中的相邻字,所述相邻字的位置ID的数值之间的差值为非零自然数。
2.根据权利要求1所述的方法,其中,所述待处理文本中的第一个字的位置ID被编码为随机自然数。
3.根据权利要求1或2所述的方法,其中,
所述相邻字的位置ID的数值被编码为位置ID的数值之间的差值为固定数值。
4.根据权利要求1或2所述的方法,其中,
所述相邻字的位置ID的数值被编码为位置ID的数值之间的差值为可变数值。
5.根据权利要求1-4中的任一项所述的方法,其中,
所述文本中的每个字的位置ID的数值被编码为0至预定数值之间的数值。
6.根据权利要求1-5中的任一项所述的方法,其中,
当所述待处理文本中的第k个字的位置ID的数值达到所述预定数值时,从第k+1个字开始,重新执行所述编码,其中,k是1至所述文本中的字的数量之间的任一数值。
7.根据权利要求5所述的方法,其中,所述预定数值是自然语言处理模型支持的文本的最大编码长度。
8.一种文本处理装置,包括:
编码模块,用于对待处理文本进行编码,得到编码后的文本数据,其中所述编码后的文本数据包括与所述待处理文本中的每个字相对应的编码数据以及与每个字对应的位置标识符ID;以及
自然语言处理模块,被配置为将所述编码后的文本数据输入自然语言处理模型,得到所述文本的处理结果;
其中,所述编码模块包括生成子模块,用于针对所述待处理文本中的每个字,生成随机的自然数,作为该字的位置ID,
其中,针对所述待处理文本中的相邻字,所述相邻字的位置ID的数值之间的差值为非零自然数。
9.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的文本处理方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的文本处理方法。
11.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的文本处理方法。
CN202110742760.XA 2021-06-30 2021-06-30 文本处理方法和文本处理装置 Active CN113553857B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110742760.XA CN113553857B (zh) 2021-06-30 2021-06-30 文本处理方法和文本处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110742760.XA CN113553857B (zh) 2021-06-30 2021-06-30 文本处理方法和文本处理装置

Publications (2)

Publication Number Publication Date
CN113553857A true CN113553857A (zh) 2021-10-26
CN113553857B CN113553857B (zh) 2023-06-23

Family

ID=78102667

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110742760.XA Active CN113553857B (zh) 2021-06-30 2021-06-30 文本处理方法和文本处理装置

Country Status (1)

Country Link
CN (1) CN113553857B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114218940A (zh) * 2021-12-23 2022-03-22 北京百度网讯科技有限公司 文本信息处理、模型训练方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170228018A1 (en) * 2014-10-13 2017-08-10 Thomason Licensig Method for controlling the displaying of text for aiding reading on a display device, and apparatus adapted for carrying out the method, computer program, and computer readable storage medium
CN108737833A (zh) * 2018-05-25 2018-11-02 珠海市杰理科技股份有限公司 数据缓冲方法、系统、计算机设备和存储介质
CN111030702A (zh) * 2019-12-27 2020-04-17 哈尔滨理工大学 一种文本压缩方法
CN112329392A (zh) * 2020-11-05 2021-02-05 上海明略人工智能(集团)有限公司 双向编码的目标编码器构建方法及装置
CN112507705A (zh) * 2020-12-21 2021-03-16 北京百度网讯科技有限公司 一种位置编码的生成方法、装置及电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170228018A1 (en) * 2014-10-13 2017-08-10 Thomason Licensig Method for controlling the displaying of text for aiding reading on a display device, and apparatus adapted for carrying out the method, computer program, and computer readable storage medium
CN108737833A (zh) * 2018-05-25 2018-11-02 珠海市杰理科技股份有限公司 数据缓冲方法、系统、计算机设备和存储介质
CN111030702A (zh) * 2019-12-27 2020-04-17 哈尔滨理工大学 一种文本压缩方法
CN112329392A (zh) * 2020-11-05 2021-02-05 上海明略人工智能(集团)有限公司 双向编码的目标编码器构建方法及装置
CN112507705A (zh) * 2020-12-21 2021-03-16 北京百度网讯科技有限公司 一种位置编码的生成方法、装置及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李瀚清;房宁;赵群飞;夏泽洋;: "利用深度去噪自编码器深度学习的指令意图理解方法", 上海交通大学学报, no. 07, pages 1102 - 1107 *
赵卫娟等: "文本水印技术研究综述", 中国传媒大学学报 (自然科学版), pages 55 - 62 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114218940A (zh) * 2021-12-23 2022-03-22 北京百度网讯科技有限公司 文本信息处理、模型训练方法、装置、设备及存储介质
CN114218940B (zh) * 2021-12-23 2023-08-04 北京百度网讯科技有限公司 文本信息处理、模型训练方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN113553857B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
EP3828719A2 (en) Method and apparatus for generating model for representing heterogeneous graph node, electronic device, storage medium, and computer program product
CN113590858B (zh) 目标对象的生成方法、装置、电子设备以及存储介质
JP7395445B2 (ja) 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器
CN111078878B (zh) 文本处理方法、装置、设备及计算机可读存储介质
JP7269972B2 (ja) 事前トレーニングのセマンティックモデルに基づくモデル改良方法及び装置
CN113407850B (zh) 一种虚拟形象的确定和获取方法、装置以及电子设备
CN111241234B (zh) 文本分类方法及装置
US20230115984A1 (en) Method and apparatus for training model, method and apparatus for generating molecules
CN113468857B (zh) 风格转换模型的训练方法、装置、电子设备以及存储介质
CN112989797B (zh) 模型训练、文本扩展方法,装置,设备以及存储介质
CN113553857B (zh) 文本处理方法和文本处理装置
CN113869042A (zh) 文本标题生成方法、装置、电子设备以及存储介质
CN114417856B (zh) 文本的稀疏编码方法、装置及电子设备
CN115809688B (zh) 一种模型调试方法、装置、电子设备及存储介质
CN114330718B (zh) 因果关系的提取方法、装置及电子设备
CN111325000A (zh) 语言生成方法、装置及电子设备
CN113642319B (zh) 文本处理方法、装置、电子设备及存储介质
CN111680508B (zh) 文本的处理方法和装置
CN115016955A (zh) 一种多应用间信息共享的方法和装置
CN114385829A (zh) 知识图谱创建方法、装置、设备以及存储介质
CN113553413A (zh) 对话状态的生成方法、装置、电子设备和存储介质
CN112541346A (zh) 摘要生成方法、装置、电子设备及可读存储介质
CN116257611B (zh) 问答模型的训练方法、问答处理方法、装置及存储介质
CN113762510B (zh) 针对目标模型的数据处理方法、装置、电子设备和介质
CN113361712B (zh) 特征确定模型的训练方法、语义分析方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant