CN111382557A - 非定长输入数据的批量处理方法、装置、终端及存储介质 - Google Patents

非定长输入数据的批量处理方法、装置、终端及存储介质 Download PDF

Info

Publication number
CN111382557A
CN111382557A CN202010243781.2A CN202010243781A CN111382557A CN 111382557 A CN111382557 A CN 111382557A CN 202010243781 A CN202010243781 A CN 202010243781A CN 111382557 A CN111382557 A CN 111382557A
Authority
CN
China
Prior art keywords
input data
data
mask matrix
batch processing
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010243781.2A
Other languages
English (en)
Other versions
CN111382557B (zh
Inventor
黄冠喆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010243781.2A priority Critical patent/CN111382557B/zh
Publication of CN111382557A publication Critical patent/CN111382557A/zh
Application granted granted Critical
Publication of CN111382557B publication Critical patent/CN111382557B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Machine Translation (AREA)

Abstract

本公开实施例公开了一种非定长输入数据的批量处理方法、装置、终端及存储介质。该方法包括:根据输入数据生成掩码矩阵,其中,所述输入数据包含长度不等的至少两个词序列;根据所述掩码矩阵确定所述输入数据的索引信息;根据所述索引信息对所述输入数据中的有效数据进行批量处理。通过本公开实施例的技术方案,可以减少针对填充数据进行的无效运算,提高了深度学习模型在批量处理非定长输入数据时的运算速度和处理效率。

Description

非定长输入数据的批量处理方法、装置、终端及存储介质
技术领域
本公开实施例涉及计算机技术,尤其涉及一种非定长输入数据的批量处理方法、装置、终端及存储介质。
背景技术
随着硬件设备的运算能力的提升,在深度学习模型的训练或采用深度学习模型进行预测的过程中,可以同时对多条输入数据进行运算。
在自然语言处理或语音识别等场景中,输入数据的长度一般是不固定的。然而,受深度学习框架或某些计算操作的限制,要求所有输入数据具有相同的长度,才能进行批量运算。目前通过填充标识的方式统一所有输入数据的长度,然而,该方法必然增加深度学习模型的运算量,影响模型的运算速度和处理效率。
发明内容
本公开提供一种非定长输入数据的批量处理方法、装置、终端及存储介质,以提高深度学习模型在处理非定长输入数据时的处理效率。
第一方面,本公开实施例提供了一种非定长输入数据的批量处理方法,该方法包括:
根据输入数据生成掩码矩阵,其中,所述输入数据包含长度不等的至少两个词序列;
根据所述掩码矩阵确定所述输入数据的索引信息;
根据所述索引信息对所述输入数据中的有效数据进行批量处理。
第二方面,本公开实施例还提供了一种非定长输入数据的批量处理装置,该装置包括:
矩阵生成模块,用于根据输入数据生成掩码矩阵,其中,所述输入数据包含长度不等的至少两个词序列;
信息确定模块,用于根据所述掩码矩阵确定所述输入数据的索引信息;
数据处理模块,用于根据所述索引信息对所述输入数据中的有效数据进行批量处理。
第三方面,本公开实施例还提供本公开实施例还提供了一种终端设备,该终端设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个存储器执行,使得所述一个或多个处理器实现如本公开实施例提供的非定长输入数据的批量处理方法。
第四方面,本公开实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本公开实施例提供的非定长输入数据的批量处理方法。
本公开实施例提供一种非定长输入数据的批量处理方案,通过输入数据生成掩码矩阵,根据掩码矩阵确定该输入数据的索引信息,根据索引信息对该输入数据中的有效数据进行批量处理,减少针对填充数据进行的无效运算,提高了深度学习模型在批量处理非定长输入数据时的运算速度和处理效率。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例提供的一种非定长输入数据的批量处理方法的流程图;
图2为本公开实施例提供的非定长输入数据的批量处理方法中掩码矩阵生成方法示意图;
图3为本公开实施例提供的非定长输入数据的批量处理方法中索引信息的确定方法示意图;
图4为本公开实施例中非定长输入数据的批量处理方法中数据复制方法的示意图;
图5为本公开实施例提供的另一种非定长输入数据的批量处理方法的流程图;
图6为本公开实施例中非定长输入数据的批量处理方法中数据写回方法的示意图;
图7为本公开实施例提供的一种非定长输入数据的批量处理装置的结构框图;
图8为本公开实施例提供的一种终端设备的结构框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
为了便于理解,下面对本公开中可能出现的词语进行解释。
自然语言处理(Natural Language Processing,简称NLP),是研究如何利用计算机技术对语言文本(句子、篇章或话语等)进行处理和加工的一门技术。NLP的关键思想之一是将单词转换为数字向量,然后把这些数字向量输入到机器学习模型中进行预测。深度学习是NLP的关键技术之一。
BERT(Bidirectional Encoder Representation from Transformers),即基于Transformer的双向编码器表征。BERT模型在处理某一个词时,能同时利用前面的词和后面的词这两部分信息。BERT模型的输入数据是id化好的词id组成的序列(如多个词语的罗列或者是句子等),例如,输入数据可以是n条长度为m的词序列。
图1为本公开实施例提供的一种非定长输入数据的批量处理方法的流程图。该方法可以适用于自然语音处理或语音识别等场景。该方法可以由非定长输入数据的批量处理装置来执行,并且该装置可以被集成于终端设备中。如图1所示,该方法包括:
步骤110、根据输入数据生成掩码矩阵。
其中,输入数据包含长度不相等的至少两个词序列。例如,输入数据可以是某一时段内客户端所展现的所有内容的标题。或者,输入数据可以是某一时间段内客户端接收的所有评论信息等等。由于每个人的语言习惯不同,导致输入数据的长度不一定相同。需要说明的是,输入数据的长度可以理解为输入数据占用终端设备的存储空间的大小,可能由于字数不同、包含标点符号与否或者包含空格与否等原因导致输入数据的长度不同。
本公开实施例中,考虑到减少终端设备的运算量,可以将输入数据中的字归为有效数据。或者,兼顾运算量和预测准确度,可以将输入数据中的字和标点符合均归为有效数据等。其中,对于有效数据的运算是深度学习模型的有效运算。
由于输入数据包含的词序列的长度不相同,在进行批量处理前,采用设定填充数据将输入数据包含的所有词序列填充至设定长度。根据有效数据、填充数据、词序列的数量和设定长度生成掩码矩阵。其中,设定长度是经验值,根据不同应用场景,人为设定不同的长度目标。另外,填充数据可以是0或者其它填充符,可以根据所采用的深度学习模型的类型确定填充数据的类型。
示例性的,由于输入数据是id化后的词构成的序列,可以在序列中各个词序列的有效数据的末尾增加填充数据,直至将每个词序列填充至设定长度。图2为本公开实施例提供的非定长输入数据的批量处理方法中掩码矩阵生成方法示意图。如图2所示,假设输入数据是n条长度为m的词序列230,设定长度是z,且z>max{m1,m2,m3,…mn},通过在各个词序列的末尾填充数据的方式,得到n条长度为z的词序列,即n*z的输入矩阵210。根据词序列的数量n和设定长度z分别确定掩码矩阵220的行数和列数,通过有效数据和填充数据分别确定掩码矩阵220的各个元素的数值,得到n*z的掩码矩阵220。其中,掩码矩阵220中元素的位置与输入矩阵210中输入数据的位置相对应。掩码矩阵220中元素为1,代表输入矩阵210中该元素相同位置的输入数据为有效数据,掩码矩阵220中元素为0,代表输入矩阵210中该元素相同位置的输入数据为填充数据。例如,第一条词序列的第一个词是有效数据,则在掩码矩阵中的第一行第一列处的元素为1,第一条词序列的第六个词是填充数据,则在掩码矩阵中的第一行第六列处的元素为0。
步骤120、根据所述掩码矩阵确定所述输入数据的索引信息。
示例性的,分别计算掩码矩阵中各个元素的前缀和,根据元素的前缀和确定该元素对应的输入数据的索引信息。图3为本公开实施例提供的非定长输入数据的批量处理方法中索引信息的确定方法示意图。如图3所示,对于掩码矩阵310的第一行第一列处的元素,其前缀为0,则第一行第一列处的元素的前缀和为0。对于掩码矩阵310的第一行第二列处的元素,其前缀为0,1,则第一行第二列处的元素的前缀和为1。对于掩码矩阵310的第一行第三列处的元素,其前缀为0,1,1,则第一行第三列处的元素的前缀和为2,以此类推,得到掩码矩阵310中各个元素的前缀和,进而由各个前缀和生成索引矩阵320。其中,索引矩阵320中各个元素为各个输入数据的索引信息。
步骤130、根据所述索引信息对所述输入数据中的有效数据进行批量处理。
本公开实施例中,在通过深度学习模型执行与上下文无关的操作之前,根据所述索引信息将填充后的输入数据中的有效数据复制至第二内存。基于第二内存中的所述有效数据,通过深度学习模型执行与上下文无关的操作。
其中,与上下文无关的操作可以是针对单个词的操作,例如,可以是所有输入数据的矩阵乘法等。与之相对应的是与上下文相关的操作,其可以是处理词与词之间关系的操作,例如,与上下文相关的操作可以是基于注意力机制的批处理等。
示例性的,启动多个线程,每个线程用于判断每个输入数据对应的掩码矩阵中的元素是否为1,并根据判断结果执行相应操作。根据索引信息逐个获取输入数据。在每个线程中,如果当前输入数据对应的掩码矩阵中的元素是1,则复制当前输入数据到预先分配的第二内存,记录该当前输入数据的索引偏移信息。如果当前输入数据对应的掩码矩阵中的元素是0,则通过下一线程执行新的判断操作。当完成所有输入数据对应的掩码矩阵中的元素的判断操作之后,第二内存空间中存储的是没有填充数据的有效数据。此后,基于第二内存中的有效数据,通过深度学习模型执行与上下文无关的操作,相当于深度学习模型仅针对输入数据中的有效部分进行运算,提高了运算效率。
需要说明的是,索引偏移信息包含输入数据复制前后的索引映射关系。图4为本公开实施例中非定长输入数据的批量处理方法中数据复制方法的示意图。如图4所示,假设第一个输入数据在掩码矩阵中对应的元素是1,则复制该输入数据到第二内存中,对应的索引偏移信息是{0,0},代表输入数据复制前的索引信息和复制后的索引信息未发生偏移,均是0。以此类推,直至输入数据在掩码矩阵中对应的元素是0,则跳过该输入数据对下一个输入数据进行判断。例如,索引信息4之后的3个填充数据被跳过,获取索引信息8代表的输入数据,由于索引信息8代表的输入数据在掩码矩阵中对应的元素是1,则复制索引信息8代表的输入数据到第二内存中,对应的索引偏移是{8,5},即原内存中索引信息8与第二内存中索引信息5代表同一输入数据。以此类推,复制输入数据的全部有效数据至第二内存。即跳过原内存中索引信息是5~7的位置,将原内存中索引信息8代表的输入数据复制到第二存储索引信息是5的位置。
本公开实施例的技术方案,通过输入数据生成掩码矩阵,根据掩码矩阵确定该输入数据的索引信息,根据索引信息对该输入数据中的有效数据进行批量处理,减少针对填充数据进行的无效运算,提高了深度学习模型在批量处理非定长输入数据时的运算速度和处理效率。
图5为本公开实施例提供的另一种非定长输入数据的批量处理方法的流程图。
步骤501、采用设定填充数据将所述至少两个词序列的长度分别填充至设定长度。
步骤502、根据所述有效数据、填充数据、词序列的数量和设定长度生成掩码矩阵。
步骤503、计算所述掩码矩阵中各个元素的前缀和。
步骤504、根据所述前缀和确定与所述元素对应的输入数据的索引信息。
步骤505、在通过深度学习模型执行与上下文无关的操作之前,根据所述索引信息将填充后的输入数据中的有效数据复制至第二内存。
例如,根据索引信息逐个获取填充后的输入数据。判断输入数据对应的掩码矩阵中的元素是否为设定数值;若是,则复制输入数据到第二内存,记录输入数据的索引偏移信息。
步骤506、基于所述第二内存中的所述有效数据,通过深度学习模型执行与上下文无关的操作。
步骤507、在通过深度学习模型执行与上下文相关的操作之前,判断掩码矩阵中的元素是否为设定数值,若是,则执行步骤508,否则,执行步骤509。
步骤508、根据所述掩码矩阵和索引偏移信息复制所述第二内存中的所述输入数据至第一内存。
例如,基于索引偏移信息复制掩码矩阵中1对应的输入数据至第一内存。
步骤509、根据所述掩码矩阵和索引偏移信息对所述第一内存中的数据填充位置进行填充。
例如,若掩码矩阵中元素的取值为0,则将该元素对应的输入矩阵中的位置确定为数据填充位置,采用填充数据填充该数据填充位置。
步骤510、读取所述第一内存中的填充后的输入数据,通过深度学习模型执行与上下文相关的操作。
示例性的,根据掩码矩阵和索引偏移信息确定第一内存中的数据复制位置和数据填充位置。复制所述第二内存中的所述输入数据至所述数据复制位置,采用设定填充数据填充所述数据填充位置;读取所述第一内存中的填充后的输入数据,通过深度学习模型执行与上下文相关的操作。例如,启动多个线程,每个线程用于判断输入数据对应的掩码矩阵中的元素是否为1,并根据判断结果执行相应操作。在每个线程中,如果当前输入数据对应的掩码矩阵中的元素是1,则根据索引偏移信息将当前输入数据写回到第一内存中的数据复制位置。如果当前输入数据对应的掩码矩阵中的元素是0,则将当前元素对应的输入矩阵中的位置确定为数据填充位置,将设定填充数据填充至该数据填充位置。此时,第一内存空间中存储的是有填充数据的输入数据,此后的操作兼容原有深度学习框架的输出和所有操作。
图6为本公开实施例中非定长输入数据的批量处理方法中数据写回方法的示意图。如图6所示,假设输入数据在掩码矩阵中对应的元素是1,则基于索引偏移信息将该输入数据由第二内存复制到第一内存中。例如,将第二内存中索引信息是0~4代表的数据分别复制到第一内存中的对应位置。将第二内存中索引信息是5代表的数据复制到第一内存中的索引信息是8的位置。而对于掩码矩阵中元素为0的位置,采用填充数据进行填充。
本公开实施例中,在进行非定长输入数据的批量处理时,建立输入数据对应的掩码矩阵。根据掩码矩阵确定输入数据的索引信息,基于索引信息消除填充数据,在进行与上下文无关的操作时跳过填充数据,将有效数据由第一内存复制到第二内存,并记录索引偏移信息,进而,基于第二内存中的有效数据,通过深度学习模型执行与上下文无关的操作,避免针对填充数据的无效运算。在进行与上下文相关的操作时,通过索引偏移信息将第二内存中的数据写回至第一内存中对应的位置,兼顾深度学习框架和与上下文相关操作。
图7为本公开实施例提供的一种非定长输入数据的批量处理装置的结构框图,所述装置可以通过执行非定长输入数据的批量处理方法避免因处理填充数据而导致的无效计算的问题。该装置可由软件和/或硬件实现,并通常集成于终端设备中。如图7所示,该装置包括:
矩阵生成模块710,用于根据输入数据生成掩码矩阵,其中,所述输入数据包含长度不等的至少两个词序列;
信息确定模块720,用于根据所述掩码矩阵确定所述输入数据的索引信息;
数据处理模块730,用于根据所述索引信息对所述输入数据中的有效数据进行批量处理。
本公开实施例提供的非定长输入数据的批量处理装置设置为实现非定长输入数据的批量处理方法,该非定长输入数据的批量处理装置的实现原理与技术效果与非定长输入数据的批量处理方法类似,此处不再赘述。
图8为本公开实施例提供的一种终端设备的结构框图。下面参考图8,其示出了适于用来实现本公开实施例的终端设备600的结构示意图。图8示出的终端设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,终端设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置806加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有终端设备800操作所需的各种程序和数据。处理装置801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置806;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置806;以及通信装置809。通信装置809可以允许终端设备800与其他设备进行无线或有线通信以交换数据。虽然图8示出了具有各种装置的终端设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置806被安装,或者从ROM 802被安装。在该计算机程序被处理装置801执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述终端设备中所包含的;也可以是单独存在,而未装配入该终端设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该终端设备执行时,使得该终端设备:根据输入数据生成掩码矩阵,其中,所述输入数据包含长度不等的至少两个词序列;根据所述掩码矩阵确定所述输入数据的索引信息;根据所述索引信息对所述输入数据中的有效数据进行批量处理。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理方法,根据输入数据生成掩码矩阵,包括:
采用设定填充数据将所述至少两个词序列的长度分别填充至设定长度;
根据所述有效数据、填充数据、词序列的数量和设定长度生成掩码矩阵。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理方法,其中,根据所述有效数据、填充数据、词序列的数量和设定长度生成掩码矩阵,包括:
根据所述词序列的数量和设定长度分别确定掩码矩阵的行数和列数;
根据所述有效数据和填充数据分别确定掩码矩阵的各个元素的数值。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理方法,其中,根据所述掩码矩阵确定所述输入数据的索引信息,包括:
计算所述掩码矩阵中各个元素的前缀和;
根据所述前缀和确定与所述元素对应的输入数据的索引信息。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理方法,其中,根据所述索引信息对所述输入数据中的有效数据进行批量处理,包括:
在通过深度学习模型执行与上下文无关的操作之前,根据所述索引信息将填充后的输入数据中的有效数据复制至第二内存;
基于所述第二内存中的所述有效数据,通过深度学习模型执行与上下文无关的操作。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理方法,其中,根据所述索引信息将填充后的输入数据中的有效数据复制至第二内存,包括:
根据所述索引信息逐个获取所述输入数据;
判断所述输入数据对应的掩码矩阵中的元素是否为设定数值;
若是,则复制所述输入数据到第二内存,记录所述输入数据的索引偏移信息。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理方法,其中,该方法还包括:
在记录所述输入数据的索引偏移信息之后,根据所述掩码矩阵和索引偏移信息确定第一内存中的数据复制位置和数据填充位置;
复制所述第二内存中的所述输入数据至所述数据复制位置,采用设定填充数据填充所述数据填充位置;
读取所述第一内存中的填充后的输入数据,通过深度学习模型执行与上下文相关的操作。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理装置,其中,矩阵生成模块具体用于:
采用设定填充数据将所述至少两个词序列的长度分别填充至设定长度;
根据所述有效数据、填充数据、词序列的数量和设定长度生成掩码矩阵。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理装置,其中,根据所述有效数据、填充数据、词序列的数量和设定长度生成掩码矩阵,包括:
根据所述词序列的数量和设定长度分别确定掩码矩阵的行数和列数;
根据所述有效数据和填充数据分别确定掩码矩阵的各个元素的数值。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理装置,其中,信息确定模块具体用于:
计算所述掩码矩阵中各个元素的前缀和;
根据所述前缀和确定与所述元素对应的输入数据的索引信息。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理装置,其中,数据处理模块具体用于:
在通过深度学习模型执行与上下文无关的操作之前,根据所述索引信息将填充后的输入数据中的有效数据复制至第二内存;
基于所述第二内存中的所述有效数据,通过深度学习模型执行与上下文无关的操作。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理装置,其中,根据所述索引信息将填充后的输入数据中的有效数据复制至第二内存,包括:
根据所述索引信息逐个获取所述输入数据;
判断所述输入数据对应的掩码矩阵中的元素是否为设定数值;
若是,则复制所述输入数据到第二内存,记录所述输入数据的索引偏移信息。
根据本公开的一个或多个实施例,提供了一种非定长输入数据的批量处理装置,该装置还包括数据写回模块,用于:
在记录所述输入数据的索引偏移信息之后,根据所述掩码矩阵和索引偏移信息确定第一内存中的数据复制位置和数据填充位置;
复制所述第二内存中的所述输入数据至所述数据复制位置,采用设定填充数据填充所述数据填充位置;
读取所述第一内存中的填充后的输入数据,通过深度学习模型执行与上下文相关的操作。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (10)

1.一种非定长输入数据的批量处理方法,其特征在于,包括:
根据输入数据生成掩码矩阵,其中,所述输入数据包含长度不等的至少两个词序列;
根据所述掩码矩阵确定所述输入数据的索引信息;
根据所述索引信息对所述输入数据中的有效数据进行批量处理。
2.根据权利要求1所述的方法,其特征在于,根据输入数据生成掩码矩阵,包括:
采用设定填充数据将所述至少两个词序列的长度分别填充至设定长度;
根据所述有效数据、填充数据、词序列的数量和设定长度生成掩码矩阵。
3.根据权利要求2所述的方法,其特征在于,根据所述有效数据、填充数据、词序列的数量和设定长度生成掩码矩阵,包括:
根据所述词序列的数量和设定长度分别确定掩码矩阵的行数和列数;
根据所述有效数据和填充数据分别确定掩码矩阵的各个元素的数值。
4.根据权利要求1所述的方法,其特征在于,根据所述掩码矩阵确定所述输入数据的索引信息,包括:
计算所述掩码矩阵中各个元素的前缀和;
根据所述前缀和确定与所述元素对应的输入数据的索引信息。
5.根据权利要求1所述的方法,其特征在于,根据所述索引信息对所述输入数据中的有效数据进行批量处理,包括:
在通过深度学习模型执行与上下文无关的操作之前,根据所述索引信息将填充后的输入数据中的有效数据复制至第二内存;
基于所述第二内存中的所述有效数据,通过深度学习模型执行与上下文无关的操作。
6.根据权利要求5所述的方法,其特征在于,根据所述索引信息将填充后的输入数据中的有效数据复制至第二内存,包括:
根据所述索引信息逐个获取所述输入数据;
判断所述输入数据对应的掩码矩阵中的元素是否为设定数值;
若是,则复制所述输入数据到第二内存,记录所述输入数据的索引偏移信息。
7.根据权利要求6所述的方法,其特征在于,在记录所述输入数据的索引偏移信息之后,还包括:
根据所述掩码矩阵和索引偏移信息确定第一内存中的数据复制位置和数据填充位置;
复制所述第二内存中的所述输入数据至所述数据复制位置,采用设定填充数据填充所述数据填充位置;
读取所述第一内存中的填充后的输入数据,通过深度学习模型执行与上下文相关的操作。
8.一种非定长输入数据的批量处理装置,其特征在于,包括:
矩阵生成模块,用于根据输入数据生成掩码矩阵,其中,所述输入数据包含长度不等的至少两个词序列;
信息确定模块,用于根据所述掩码矩阵确定所述输入数据的索引信息;
数据处理模块,用于根据所述索引信息对所述输入数据中的有效数据进行批量处理。
9.一种终端设备,其特征在于,所述终端设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个存储器执行,使得所述一个或多个处理器实现如权利要求1-7中任一项所述的非定长输入数据的批量处理方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一项所述的非定长输入数据的批量处理方法。
CN202010243781.2A 2020-03-31 2020-03-31 非定长输入数据的批量处理方法、装置、终端及存储介质 Active CN111382557B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010243781.2A CN111382557B (zh) 2020-03-31 2020-03-31 非定长输入数据的批量处理方法、装置、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010243781.2A CN111382557B (zh) 2020-03-31 2020-03-31 非定长输入数据的批量处理方法、装置、终端及存储介质

Publications (2)

Publication Number Publication Date
CN111382557A true CN111382557A (zh) 2020-07-07
CN111382557B CN111382557B (zh) 2023-09-22

Family

ID=71217507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010243781.2A Active CN111382557B (zh) 2020-03-31 2020-03-31 非定长输入数据的批量处理方法、装置、终端及存储介质

Country Status (1)

Country Link
CN (1) CN111382557B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023125985A1 (zh) * 2021-12-31 2023-07-06 华为技术有限公司 模型的数据处理方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090164864A1 (en) * 2005-12-20 2009-06-25 Mitsubishi Electric Corporation Inspection matrix generation method, encoding method, communication device, communication system, and encoder
JP2013026996A (ja) * 2011-07-26 2013-02-04 Fujitsu Ltd 情報処理方法及び装置、並びにコンピュータシステム
WO2013107135A1 (zh) * 2012-01-17 2013-07-25 华为技术有限公司 使用码本进行数据传输的方法和设备
CN106445472A (zh) * 2016-08-16 2017-02-22 中国科学院计算技术研究所 一种字符操作加速方法、装置、芯片、处理器
US20190121837A1 (en) * 2018-12-21 2019-04-25 Omid Azizi Apparatus and method for a masked multiply instruction to support neural network pruning operations

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090164864A1 (en) * 2005-12-20 2009-06-25 Mitsubishi Electric Corporation Inspection matrix generation method, encoding method, communication device, communication system, and encoder
JP2013026996A (ja) * 2011-07-26 2013-02-04 Fujitsu Ltd 情報処理方法及び装置、並びにコンピュータシステム
WO2013107135A1 (zh) * 2012-01-17 2013-07-25 华为技术有限公司 使用码本进行数据传输的方法和设备
CN106445472A (zh) * 2016-08-16 2017-02-22 中国科学院计算技术研究所 一种字符操作加速方法、装置、芯片、处理器
US20190121837A1 (en) * 2018-12-21 2019-04-25 Omid Azizi Apparatus and method for a masked multiply instruction to support neural network pruning operations

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023125985A1 (zh) * 2021-12-31 2023-07-06 华为技术有限公司 模型的数据处理方法及装置

Also Published As

Publication number Publication date
CN111382557B (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
US11699074B2 (en) Training sequence generation neural networks using quality scores
CN106855952B (zh) 基于神经网络的计算方法及装置
CN112270200B (zh) 一种文本信息的翻译方法、装置、电子设备和存储介质
CN112380876B (zh) 基于多语言机器翻译模型的翻译方法、装置、设备和介质
CN112818663A (zh) 用于语言模型的处理方法、文本生成方法、装置及介质
CN111339789A (zh) 一种翻译模型训练方法、装置、电子设备及存储介质
CN113095129A (zh) 姿态估计模型训练方法、姿态估计方法、装置和电子设备
CN111133458B (zh) 增强神经网络
CN110705273A (zh) 基于神经网络的信息处理方法及装置、介质和电子设备
CN111104796B (zh) 用于翻译的方法和装置
CN115640815A (zh) 翻译方法、装置、可读介质及电子设备
KR102550340B1 (ko) 챕터-레벨 텍스트 번역 방법 및 디바이스
CN111382557B (zh) 非定长输入数据的批量处理方法、装置、终端及存储介质
CN116108157B (zh) 训练文本生成模型的方法、文本生成方法及装置
CN111026849A (zh) 数据处理方法和装置
CN115688905A (zh) 对深度学习模型进行加速处理的方法
CN109635238A (zh) 矩阵运算方法、装置、设备及可读介质
CN111475618B (zh) 用于生成信息的方法和装置
CN114818746A (zh) 一种文本生成方法、装置、计算机设备及存储介质
CN111581455B (zh) 文本生成模型的生成方法、装置和电子设备
CN114564606A (zh) 一种数据处理方法、装置、电子设备及存储介质
CN113875228A (zh) 视频插帧方法及装置、计算机可读存储介质
CN112270170B (zh) 一种隐式表述语句的分析方法、装置、介质和电子设备
CN115098647B (zh) 用于文本表征的特征向量生成方法、装置和电子设备
CN114792258B (zh) 信息生成方法、装置、电子设备和计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant