CN110390100A - 处理方法、第一电子终端、第二电子终端和处理系统 - Google Patents

处理方法、第一电子终端、第二电子终端和处理系统 Download PDF

Info

Publication number
CN110390100A
CN110390100A CN201910641942.0A CN201910641942A CN110390100A CN 110390100 A CN110390100 A CN 110390100A CN 201910641942 A CN201910641942 A CN 201910641942A CN 110390100 A CN110390100 A CN 110390100A
Authority
CN
China
Prior art keywords
text
processor
layer
predicted
electric terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910641942.0A
Other languages
English (en)
Other versions
CN110390100B (zh
Inventor
孙仿逊
赵耀
韩传宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Xiaopeng Motors Technology Co Ltd
Original Assignee
Guangzhou Xiaopeng Motors Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Xiaopeng Motors Technology Co Ltd filed Critical Guangzhou Xiaopeng Motors Technology Co Ltd
Priority to CN201910641942.0A priority Critical patent/CN110390100B/zh
Publication of CN110390100A publication Critical patent/CN110390100A/zh
Application granted granted Critical
Publication of CN110390100B publication Critical patent/CN110390100B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种处理方法、第一电子终端、第二电子终端和处理系统。文本序列的处理方法用于第一处理器,第一处理器用于并行运算,处理方法包括:获取待预测文本;处理待预测文本以得到待预测文本的处理数据;将处理数据发送至第二处理器,以使第二处理器处理处理数据以得到待预测文本的预测结果,第二处理器用于串行运算。如此,通过第一处理器处理待预测文本从而得到处理数据,并通过第二处理器处理处理数据从而得到预测结果,在保证文本序列预测的准确性的同时,可以提高预测速度,从而提高用户的体验。

Description

处理方法、第一电子终端、第二电子终端和处理系统
技术领域
本发明涉及数据处理技术领域,特别涉及一种处理方法、第一电子终端、第二电子终端和处理系统。
背景技术
相关技术通常通过文本序列标注的方式对给定的文本预测出需要作出标注的标签,从而实现多种应用。例如,分词、命名实体识别(Named Entity Recognition,NER)等应用。然而,相关技术的文本序列标注方式不能兼顾准确性和预测速度,导致用户体验较差。
发明内容
本发明提供一种处理方法、第一电子终端、第二电子终端和处理系统。
本发明实施方式的处理方法用于第一处理器,
所述第一处理器用于并行计算,所述处理方法包括:
获取待预测文本;
处理所述待预测文本以得到所述待预测文本的处理数据;
将所述处理数据发送至第二处理器,以使所述第二处理器处理所述处理数据以得到所述待预测文本的预测结果,所述第二处理器用于串行运算。
在某些实施方式中,所述处理数据包括所述待预测文本的文本向量,处理所述待预测文本以得到所述待预测文本的处理数据,包括:
处理所述待预测文本以得到所述文本向量;
将所述处理数据发送至第二处理器,以使所述第二处理器处理所述处理数据以得到所述待预测文本的预测结果,包括:
将所述文本向量发送至所述第二处理器,以使所述第二处理器处理所述文本向量以得到所述待预测文本的预测结果。
在某些实施方式中,所述第一处理器设置在第一电子终端,所述第二处理器设置在第二电子终端,所述处理方法包括:
在所述第一电子终端和所述第二电子终端载入文本序列预测模型,所述文本序列预测模型包括第一层、第二层和第三层,所述第一层用于根据输入的所述待预测文本输出所述待预测文本的文本向量,所述第二层用于根据输入的所述文本向量输出所述待预测文本的隐状态序列,所述第三层用于根据输入的所述隐状态序列输出所述预测结果;
将所述第二层和所述第三层在所述第一处理器禁用;
将所述第一层在所述第二处理器禁用。
在某些实施方式中,所述第一处理器和所述第二处理器设置在第一电子终端,所述处理方法包括:
在所述第一电子终端载入文本序列预测模型,所述文本序列预测模型包括第一层、第二层和第三层,所述第一层用于根据输入的所述待预测文本输出所述待预测文本的文本向量,所述第二层用于根据输入的所述文本向量输出所述待预测文本的隐状态序列,所述第三层用于根据输入的所述隐状态序列输出所述预测结果;
将所述第一层限定在所述第一处理器;
将所述第二层和所述第三层限定在所述第二处理器。
在某些实施方式中,所述第一层为BERT模型,所述第二层为Bi-LSTM模型,所述第三层为CRF模型,所述BERT模型的输出作为所述Bi-LSTM模型的输入,所述Bi-LSTM模型的输出作为所述CRF模型的输入。
在某些实施方式中,所述第一处理器包括图形处理器。
本发明实施方式的处理方法用于第二处理器,所述第二处理器用于串行运算,所述处理方法包括:
获取第一处理器发送的处理数据,所述处理数据由所述第一处理器处理待预测文本得到,所述第一处理器用于并行计算;
处理所述处理数据以得到所述待预测文本的预测结果。
在某些实施方式中,所述处理数据包括所述待预测文本的文本向量,获取第一处理器发送的处理数据,包括:
获取所述第一处理器发送的所述文本向量,所述文本向量由所述第一处理器处理所述待预测文本得到;
处理所述处理数据以得到所述待预测文本的预测结果,包括:
处理所述文本向量以得到所述待预测文本的预测结果。
在某些实施方式中,处理所述文本向量以得到所述待预测文本的预测结果,包括:
处理所述文本向量以得到所述待预测文本的隐状态序列;
处理所述隐状态序列以得到所述预测结果。
在某些实施方式中,处理所述文本向量以得到所述待预测文本的隐状态序列,包括:
处理所述文本向量以得到所述待预测文本的正向序列和反向序列;
拼接所述正向序列和所述反向序列以得到所述隐状态序列。
在某些实施方式中,所述第一处理器设置在第一电子终端,所述第二处理器设置在第二电子终端,所述处理方法包括:
在所述第一电子终端和所述第二电子终端载入文本序列预测模型,所述文本序列预测模型包括第一层、第二层和第三层,所述第一层用于根据输入的所述待预测文本输出所述待预测文本的文本向量,所述第二层用于根据输入的所述文本向量输出所述待预测文本的隐状态序列,所述第三层用于根据输入的所述隐状态序列输出所述预测结果;
将所述第二层和所述第三层在所述第一处理器禁用;
将所述第一层在所述第二处理器禁用。
在某些实施方式中,所述第一处理器和所述第二处理器设置在第二电子终端,所述处理方法包括:
在所述第二电子终端载入文本序列预测模型,所述文本序列预测模型包括第一层、第二层和第三层,所述第一层用于根据输入的所述待预测文本输出所述待预测文本的文本向量,所述第二层用于根据输入的所述文本向量输出所述待预测文本的隐状态序列,所述第三层用于根据输入的所述隐状态序列输出所述预测结果;
将所述第一层限定在所述第一处理器;
将所述第二层和所述第三层限定在所述第二处理器。
在某些实施方式中,所述第一层为BERT模型,所述第二层为Bi-LSTM模型,所述第三层为CRF模型,所述BERT模型的输出作为所述Bi-LSTM模型的输入,所述Bi-LSTM模型的输出作为所述CRF模型的输入。
在某些实施方式中,所述第二处理器包括中央处理器。
本发明实施方式的第一电子终端包括第一存储器和第一处理器,所述第一存储器存储有计算机程序,所述第一处理器用于执行所述程序以实现上述任一实施方式的用于所述第一处理器的方法。
在某些实施方式中,所述第一电子终端包括第二处理器,所述第二处理器用于执行所述程序以实现上述任一实施方式的用于所述第二处理器的方法。
本发明实施方式的第二电子终端包括第二存储器和第二处理器,所述第二存储器存储有计算机程序,所述第二处理器用于执行所述程序以实现上述任一实施方式的用于所述第二处理器的方法。
本发明实施方式的处理系统包括上述的第一电子终端和上述的第二电子终端。
本发明实施方式的处理方法、第一电子终端、第二电子终端和处理系统中,通过第一处理器处理待预测文本从而得到处理数据,并通过第二处理器处理处理数据从而得到预测结果,在保证文本序列预测的准确性的同时,可以提高预测速度,从而提高用户的体验。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明实施方式的文本序列的处理方法的流程示意图;
图2是本发明实施方式的文本序列的处理方法的数据流向示意图;
图3是本发明另一实施方式的文本序列的处理方法的数据流向示意图;
图4是本发明实施方式的文本序列的处理方法的场景示意图;
图5是本发明实施方式的文本序列的处理方法的另一场景示意图;
图6是本发明另一实施方式的文本序列的处理方法的流程示意图;
图7是本发明又一实施方式的文本序列的处理方法的流程示意图;
图8是本发明实施方式的文本序列的处理方法的预测过程示意图;
图9是本发明另一实施方式的文本序列的处理方法的预测过程示意图;
图10是本发明再一实施方式的文本序列的处理方法的流程示意图;
图11是本发明实施方式的文本序列的处理方法的训练过程示意图;
图12是本发明另一实施方式的文本序列的处理方法的流程示意图;
图13是本发明又一实施方式的文本序列的处理方法的流程示意图;
图14是本发明再一实施方式的文本序列的处理方法的流程示意图;
图15是本发明实施方式的文本序列的处理方法的流程示意图;
图16是本发明另一实施方式的文本序列的处理方法的流程示意图;
图17是本发明又一实施方式的文本序列的处理方法的流程示意图;
图18是本发明再一实施方式的文本序列的处理方法的流程示意图;
图19是本发明另一实施方式的文本序列的处理方法的流程示意图;
图20是本发明又一实施方式的文本序列的处理方法的流程示意图;
图21是本发明实施方式的第一电子终端的模块示意图;
图22是本发明另一实施方式的第一电子终端的模块示意图;
图23是本发明实施方式的第二电子终端的模块示意图;
图24是本发明实施方式的文本序列的处理系统的模块示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1,本发明实施方式的文本序列的处理方法,用于第一处理器101,第一处理器101用于并行计算,处理方法包括:
步骤S14:获取待预测文本;
步骤S16:处理待预测文本以得到待预测文本的处理数据;
步骤S18:将处理数据发送至第二处理器201,以使第二处理器201处理处理数据以得到待预测文本的预测结果,第二处理器201用于串行运算。
本发明实施方式的处理方法中,通过第一处理器101处理待预测文本从而得到处理数据,并通过第二处理器201处理处理数据从而得到预测结果,在保证文本序列预测的准确性的同时,可以提高预测速度,从而提高用户的体验。
本发明实施方式的处理方法可完成自然语言处理(Natural LanguageProcessing,NLP)领域在句子层面中的主要任务,序列标注任务。也即是说,本发明实施方式的处理方法可预测待预测文本中需要作出标注的标签,从而实现分词、命名实体识别(Named Entity Recognition,NER)或其他应用场景。
分词是指将句子中的字拆分为词。在一个例子中,待预测文本为:“南京市长江大桥”,经过本发明实施方式的处理方法处理后,得到的预测结果为:“南京市”、“长江”、“大桥”。
在另一个例子中,待预测文本为:“深圳湾体育中心”,经过本发明实施方式的处理方法处理后,得到的预测结果为:“深圳湾”、“体育”、“中心”。
在又一个例子中,待预测文本为:“导航到湖南省长沙市烈士公园”,经过本发明实施方式的处理方法处理后,得到的预测结果为:“导航”、“到”、“湖南省”、“长沙市”、“烈士公园”。
命名实体识别是指识别文本中具有特定意义的实体,例如人名、地名、机构名、专有名词等。在一个例子中,待预测文本为:“导航去北京大学”,经过本发明实施方式的处理方法处理后,得到的预测结果为地名:“北京大学”。
在另一个例子中,待预测文本为:“我想听周杰伦的青花瓷”,经过本发明实施方式的处理方法处理后,得到的预测结果为歌手名和歌曲名:“周杰伦”、“青花瓷”。
在又一个例子中,待预测文本为:“导航去T3航站楼途径鸟巢”,经过本发明实施方式的处理方法处理后,得到的预测结果为地名:“T3航站楼”、“鸟巢”。
为方便说明,接下来以本发明实施方式的处理方法应用于命名实体识别为例进行解释和说明。可以理解,这并不代表对本发明实施方式的处理方法的限制。
另外,第一处理器101包括图形处理器(Graphics Processing Unit,GPU)。第二处理器201包括中央处理器。接下来以第一处理器101为GPU,第二处理器201为CPU为例进行说明。可以理解,第一处理器101也可为其他的用于并行计算的处理器,第二处理器201也可为其他的用于串行计算的处理器。在此不对第一处理器101和第二处理器201的具体形式进行限定。
第一处理器101和第二处理器201可设置在同一个电子终端,也可分别设置在不同的电子终端。第一处理器101和第二处理器201设置在同一个电子终端时,第一处理器101和第二处理器201可集成为一个处理器,第一处理器101和第二处理器201分别作为集成后的处理器的不同核心。在第一处理器101和第二处理器201分别设置在不同的电子终端时,不同的电子终端之间可通过网络进行通信。
第一电子终端100和第二电子终端200包括但不限于服务器、车载终端、手机、平板电脑、笔记本电脑、可穿戴设备等。在本实施方式中,第一电子终端100为一个服务器,第二电子终端200为另一个服务器。
可以理解,在其他的一些实施方式中,车辆设置有两个车载终端,第一电子终端100为其中一个车载终端,第二电子终端200为其中另一个车载终端。在其他的又一些实施方式中,第一电子终端100为手机,第二电子终端200为平板电脑。在此不对第一电子终端100和第二电子终端200的具体形式进行限定。
在一个例子中,如图2所示,第一电子终端100为一个服务器,第一处理器101和第二处理器201均设置在第一电子终端100。第一处理器101和第二处理器201分别为第一电子终端100的GPU核心和CPU核心,对待预测文本的预测过程分布在同一个电子终端的不同核心上进行。GPU核心处理待预测文本得到处理数据后,将处理数据输出给CPU核心,CPU核心对处理数据进行处理后,将预测结果输出。
在另一个例子中,如图3所示,第一电子终端100为一个服务器,第二电子终端200为另一个服务器,第一处理器101为设置在第一电子终端100的GPU,第二处理器201为设置在第二电子终端200的CPU,第一电子终端100和第二电子终端200通过超文本传输协议(HyperText Transfer Protocol,HTTP)进行通信。也即是说,对待预测文本的预测过程分布在不同的电子终端上进行。第一电子终端100和第二电子终端200可组成文本序列的处理系统1000。GPU处理待预测文本得到处理数据后,将处理数据输出给CPU,CPU对处理数据进行处理后,将预测结果输出。
在步骤S14中,待预测文本可由用户的语音输入转换而成。具体地,可利用自动语音识别技术(Automatic Speech Recognition,ASR)对用户的语音输入进行转换。自动语音识别技术可将用户的语音输入中的词汇内容转换为第一处理器101可读的待预测文本,例如二进制编码或者字符序列,从而使第一处理器101可以对待预测文本进行处理。
可以理解,待预测文本可由用户的语音输入转换而成仅为示例,除语音输入外,待预测文本还可以从其他途径获得。例如,可采集用户在浏览器搜索的句子,可采集用户浏览的文本,例如网络上的用户评论等。在此不对获取待预测文本的具体方式进行限定。
请参阅图2和图4,在一个例子中,车辆2000上设置有车载终端2001。第一电子终端100为服务器。第一处理器101和第二处理器102集成为第一电子终端100的处理器。具体地,第一处理器101和第二处理器201分别为第一电子终端100的GPU核心和CPU核心。用户在车辆内说:“导航去北京大学”,车载终端2001将语音输入发送至第一电子终端100,第一电子终端100利用ASR将用户的语音输入转换为字符串作为待预测文本,第一电子终端100的GPU核心对待预测文本进行处理,并将得到的处理数据发送至第一电子终端100的CPU核心,CPU核心处理处理数据,得到待预测文本的预测结果为:“北京大学”。第一电子终端100将预测结果发送至车载终端2001,从而使得车载终端2001根据预测结果进行导航。
请参阅图3和图5,在另一个例子中,车辆2000上设置有车载终端2001。第一电子终端100为一个服务器,第二电子终端200为另一个服务器,第一处理器101为设置在第一电子终端100的GPU,第二处理器201为设置在第二电子终端200的CPU,第一电子终端100和第二电子终端200通过HTTP协议进行通信。用户在车辆内说:“导航去北京大学”,车载终端2001将语音输入发送至第一电子终端100,第一电子终端100利用ASR将用户的语音输入转换为字符串作为待预测文本,第一电子终端100的GPU对待预测文本进行处理,并将得到的处理数据发送至第二电子终端200的CPU,CPU处理处理数据,得到待预测文本的预测结果为:“北京大学”。第二电子终端200将预测结果发送至车载终端2001,从而使得车载终端2001根据预测结果进行导航。
在又一个例子中,输入的待预测文本为:“导航去T3航站楼途径鸟巢”。输出的预测结果如下所示。可以理解,输出的预测结果包括待预测文本中的地名,以及地名在待预测文本中的位置和类型。
请参阅图6,在本实施方式中,处理数据包括待预测文本的文本向量,步骤S16包括:
步骤S164:处理待预测文本以得到文本向量;
步骤S18包括:
步骤S184:将文本向量发送至第二处理器201,以使第二处理器201处理文本向量以得到待预测文本的预测结果。
如此,实现第一处理器101对待预测文本的处理和第二处理器201对处理数据的处理。进一步地,第二处理器201可处理文本向量以得到待预测文本的隐状态序列,并处理隐状态序列以得到预测结果。
更进一步地,第一处理器101可通过文本序列预测模型的第一层处理待预测文本以得到文本向量,第二处理器201可通过文本序列预测模型的第二层处理文本向量以得到待预测文本的隐状态序列,并通过文本序列预测模型的第三层处理隐状态序列以得到预测结果。如此,通过文本序列预测模型实现对待预测文本的处理。
请参阅图7,在第一处理器101和第二处理器201设置在不同的电子终端的情况下,例如,第一处理器101设置在第一电子终端100,第二处理器201设置在第二电子终端200,处理方法包括:
步骤S131:在第一电子终端100和第二电子终端200载入文本序列预测模型,文本序列预测模型包括第一层、第二层和第三层,第一层用于根据输入的待预测文本输出待预测文本的文本向量,第二层用于根据输入的文本向量输出待预测文本的隐状态序列,第三层用于根据输入的隐状态序列输出预测结果;
步骤S132:将第二层和第三层在第一处理器101禁用;
步骤S133:将第一层在第二处理器201禁用。
如此,实现将文本序列预测模型部署在第一处理器101和第二处理器201上。可以理解,通过将第二层和第三层在第一处理器101禁用,可使得第一处理器101仅使用第一层。通过将第一层在第二处理器201禁用,可使得第二处理器仅使用第二层和第三层。
当然,在其他的实施方式中,也可仅在第一处理器101载入第一层,在第二处理器201载入第二层和第三层。在此不对将文本序列预测模型部署在第一处理器101和第二处理器201上的具体方式进行限定。
请注意,在图7的示例中,步骤S131-S133在步骤S14之前。可以理解,在其他的示例中,步骤S131-S133也可在步骤S14之后,在步骤S16之前。在此不对步骤S131-S133和步骤S14的具体顺序进行限定。
另外,在第一处理器101和第二处理器201设置在相同的电子终端的情况下,例如第一处理器101和第二处理器201设置在第一电子终端100,处理方法包括:在第一电子终端100载入文本序列预测模型,文本序列预测模型包括第一层、第二层和第三层,第一层用于根据输入的待预测文本输出待预测文本的文本向量,第二层用于根据输入的文本向量输出待预测文本的隐状态序列,第三层用于根据输入的隐状态序列输出预测结果;将第一层限定在第一处理器101;将第二层和第三层限定在第二处理器201。
如此,实现将文本序列预测模型部署在第一处理器101和第二处理器201上。可以理解,通过将第一层限定在第一处理器101,可使得第一处理器101仅使用第一层。通过将第二层和第三层限定在第二处理器201,可使得第二处理器仅使用第二层和第三层。
在本实施方式中,第一层为来自Transformer的双向编码器表征(BidirectionalEncoder Representations from Transformers,BERT)模型,第二层为双向长短期记忆网络(bidirectional Long Short-Term Memory,Bi-LSTM)模型,第三层为条件随机场(Conditional Random Field,CRF)模型。也即是说,在本实施方式中,对待预测文本的处理是通过三层的文本序列预测模型进行,三层依次为:BERT模型、Bi-LSTM模型和CRF模型。BERT模型的输出作为Bi-LSTM模型的输入,Bi-LSTM模型的输出作为CRF模型的输入。
当然,对待预测文本的处理也可以通过其他的模型进行。在其他的一些实施方式中,对待预测文本的处理通过Bi-LSTM模型和CRF模型构成的模型进行,Bi-LSTM模型和CRF模型可分布在相同的处理器,也可分布在不同的处理器。
在其他的另一些实施方式中,对待预测文本的处理通过BERT模型和CRF模型构成的模型进行,BERT模型和CRF模型可分布在相同的处理器,也可分布在不同的处理器。在此不对对待预测文本进行处理的具体模型和模型的具体分布方式进行限定。
BERT模型、Bi-LSTM模型和CRF模型构成的文本序列预测模型,泛化性能较强,对待预测文本进行预测的准确度较高,但是训练速度和预测速度较慢。Bi-LSTM模型和CRF模型构成的模型,训练速度和预测速度较快,但泛化性能较差,对于训练数据中未出现的词或表达方式不能够理解。
下表1是待预测文本的各模型的性能对比表。
表1
可以理解,确定文本序列预测模型的每层的时延也需要时间,从而导致总时延增加。因此,表1中,部署在GPU时的总时延与部署在GPU时每层的时延之和不一致。
由表1可知,BERT模型、Bi-LSTM模型和CRF模型构成的文本序列预测模型无论是部署在GPU上还是CPU上,预测时延都超过200ms,而预设的上线要求是预测时延小于50ms。也即是说,将BERT模型、Bi-LSTM模型和CRF模型构成的文本序列预测模型部署在GPU不能满足上线要求,将BERT模型、Bi-LSTM模型和CRF模型构成的文本序列预测模型部署在CPU也不能满足上线要求。
可以理解,由于BERT模型是并行计算,因此,BERT模型在GPU上预测较快,在CPU上较慢。而由于Bi-LSTM模型是串行计算,因此,BERT模型在GPU上预测较慢,在CPU上较快。
而本实施方式中,将第一层,也即是BERT模型,部署在GPU上。同时,将第二层和第三层,也即是Bi-LSTM模型和CRF模型部署在CPU上。这样可以显著提高预测速度,并保证对待预测文本预测的准确性,有利于提高用户体验。
图8和图9是本发明实施方式的处理方法的数据流向示意图。
图8的示例中,第一处理器101和第二处理器201均设置在第一电子终端100。第一处理器101和第二处理器201分别为第一电子终端100的GPU核心和CPU核心。对待预测文本的预测是在第一电子终端100的不同核心上进行。
具体地,可在第一电子终端100上载入训练好的文本序列预测模型,并将BERT模型的运算限定在GPU核心上,将Bi-LSTM模型和CRF模型的运算限定在CPU核心上。
图9的示例中,第一处理器101为设置在第一电子终端100的GPU,第二处理器201为设置在第二电子终端200的CPU。对待预测文本的预测过程分布在不同的电子终端上进行。
具体地,可在第一电子终端100和第二电子终端200上分别载入训练好的文本序列预测模型。并在第一电子终端100上禁用Bi-LSTM模型和CRF模型,在第二电子终端200上禁用BERT模型。
可以理解,往BERT模型输入待预测文本,BERT模型可作为语言模型,输出文本向量。BERT模型输出的文本向量作为Bi-LSTM模型的输入。
Bi-LSTM模型可根据文本向量自动提取待预测文本的句子特征。具体地,Bi-LSTM模型通过两个LSTM,使得Bi-LSTM模型能够同时考虑过去的特征(通过前向过程提取)和未来的特征(通过后向过程提取),从而得到正向序列和反向序列。然后,将正向序列和反向序列拼接,即可得到待预测文本的隐状态序列。
具体地,Bi-LSTM模型可将待预测文本的文本向量作为双向LSTM各个时间步的输入,再将正向LSTM输出的正向序列和反向LSTM输出的反向序列按位置进行拼接,从而得到完整的隐状态序列。
Bi-LSTM模型输出的隐状态序列可作为CRF模型的输入。CRF模型可根据隐状态序列预测待预测文本的序列标注。这样,就得到了待预测文本的预测结果。
请参阅图10,在某些实施方式中,处理方法包括:
步骤S11:获取文本训练数据;
步骤S12:利用文本训练数据训练文本序列预测模型。
如此,实现对文本序列预测模型的训练。具体地,在图11的示例中,可根据文本训练数据将BERT模型、Bi-LSTM模型和CRF模型在GPU上训练。
往BERT模型输入待预测文本,BERT模型可输出训练文本向量。Bi-LSTM模型可根据训练文本向量自动提取文本训练数据的句子特征并输出训练隐状态序列。CRF模型可以通过训练隐状态序列学习到文本训练数据中各个序列标签的特征和规律。
进一步地,在初始化BERT模型、Bi-LSTM模型和CRF模型的参数后,可通过循环进行预测,从而使得误差和准确率满足预设需求。
进一步地,文本训练数据包括训练文本和训练标注,可利用训练标注对文本序列预测模型的损失函数进行最小化优化来拟合预测结果与标注结果,并更新文本序列预测模型的参数。
进一步地,在文本序列预测模型的训练过程中,可调节超参数,例如对大量的超参数进行选择调试和试验,以训练得到误差和准确率均满足预设需求的文本序列预测模型。选择调试的超参数包括但不限于:每一批句子数(batch size)、文本向量维度、网络层数,学习率、优化方法等。
请参阅图12,在某些实施方式中,文本训练数据包括训练文本,步骤S11包括:
步骤S112:处理输入的语音数据以得到文本训练数据。
如此,实现文本训练数据的获取。具体地,语音数据可来自于用户的语音输入。用户的语音输入包括但不限于控制命令、导航命令等。
在一个例子中,第一电子终端100为车载终端,第一处理器101设置在车载终端。用户在车辆内说:“我想听周杰伦的青花瓷。”,第一处理器101通过声电元件获取到语音数据,并将语音数据转化为训练文本,从而利用训练文本对文本序列预测模型进行训练。
在另一个例子中,第一电子终端100为车载终端,第一处理器101设置在车载终端。用户在车辆内说:“导航去北京大学。”,第一处理器101通过声电元件获取到语音数据,并将语音数据转化为训练文本,从而利用训练文本对文本序列预测模型进行训练。
另外,车载终端可为多个,并分布在不同的车辆上,多个车载终端可将获取到的语音数据发送至服务器保存,在需要对文本序列预测模型进行训练时,第一处理器101可从服务器获取语音数据,并将语音数据转化为训练文本。
当然,服务器也可保存由语音数据转化而来的训练文本。这样,在需要对文本序列预测模型进行训练时,第一处理器101可从服务器直接获取训练文本。
可以理解,除通过语音数据外,文本训练数据还可以从其他途径获得。例如,可采集用户在浏览器搜索的句子,可采集用户浏览的文本,可采集网络中的高频语句,还可导入书籍。在此不对获取文本训练数据的具体方式进行限定。
请参阅图13,在某些实施方式中,文本训练数据包括训练文本和训练标注,训练文本包括标注数据,步骤S11包括:
步骤S116:获取训练文本的标注数据;
步骤S118:处理标注数据以得到训练标注。
如此,实现对文本训练数据的获取。具体地,标注数据可由人工通过标注工具对训练文本进行标注得到。在文本序列预测模型的训练和预测的过程中,可将标注数据进行形式转换以得到训练标注。
在一个例子中,标注数据由人工在网页上直接对训练文本标注标签,标注数据例如:
导航到<D:district>佛山</D:district><D:poi_generic>富丰新城</D:poi_generic>;
导航去<D:hotel>和平酒店</D:hotel>;
导航去<D:district>荔湾区</D:district><D:road>宝业路</D:road><D:poi_generic>大河里</D:poi_generic>。
在文本序列预测模型的训练和预测的过程中,可将上述标注数据转换为BIO形式以得到训练标注。
在本实施方式中,标注数据的形式为“开始、中间、其他”,即BIO(Begin、Intermedia、Other)。其中,“B”表示此元素在此片段的开头,“I”表示此元素在此片段的中间位置,“O”表示此元素不属于任何类型。
在一个例子中,对于训练文本“导航到番禺去正源中学”,训练标注如下表2所示。
表2
O O
O B-POI_GENERIC
O I-POI_GENERIC
B-DISTRICT I-POI_GENERIC
I-DISTRICT I-POI_GENERIC
可以理解,在其他的实施方式中,标注数据的形式也可为“开始、中间、其他、结尾、单个字符”,即BIOES(Begin、Intermedia、Other、End、Single)。在此不对标注数据的具体形式进行限定。
请参阅图14,在某些实施方式中,步骤S11包括:
步骤S111:获取待增强的文本训练数据;
步骤S113:对待增强的文本训练数据进行数据增强处理以得到文本训练数据。
如此,实现获取文本训练数据。可以理解,文本序列预测模型包括大量的参数,要想训练出符合预设需求的文本序列预测模型,一般需要大量的数据进行训练。因此,可将待增强的文本训练数据进行数据增强处理,从而使得文本训练数据的数据量更多。这样,不仅可以增加训练的数据量,提高文本序列预测模型的泛化能力,还可以增加噪声数据,提高文本序列预测模型的鲁棒性。
具体地,可通过回译、同义词替换、句子扩充、句子缩写等方式对待增强的文本训练数据进行数据增强处理。
在一个例子中,可根据用户输入的句式,利用程序自动泛化出训练集。例如,可归纳出用户一般说“导航去xxx”、“我想去xxx”,利用搜集到的地理位置信息,可以泛化出“导航去北京大学”、“我想去小鹏汽车产业园”等语料。
请参阅图15,本发明实施方式的文本序列的处理方法,用于第二处理器201,第二处理器201用于串行运算,处理方法包括:
步骤S22:获取第一处理器101发送的处理数据,处理数据由第一处理器101处理待预测文本得到,第一处理器101用于并行计算;
步骤S24:处理处理数据以得到待预测文本的预测结果。
本发明实施方式的文本序列的处理方法,通过第一处理器101处理待预测文本从而得到处理数据,并通过第二处理器201处理处理数据从而得到预测结果,在保证文本序列预测的准确性的同时,可以提高预测速度,从而提高用户的体验。
需要说明的是,上述实施方式的用于第一处理器101的处理方法的解释说明和有益效果也适用于本实施方式的用于第二处理器201的处理方法,为避免冗余,在此不再详细展开。
请参阅图16,在某些实施方式中,处理数据包括待预测文本的文本向量,步骤S22包括:
步骤S224:获取第一处理器101发送的文本向量,文本向量由第一处理器101处理待预测文本得到;
步骤S24包括:
步骤S244:处理文本向量以得到待预测文本的预测结果。
请参阅图17,在某些实施方式中,步骤S244包括:
步骤S2444:处理文本向量以得到待预测文本的隐状态序列;
步骤S2446:处理隐状态序列以得到预测结果。
请参阅图18,在某些实施方式中,步骤S2444包括:
步骤S2441:处理文本向量以得到正向序列和反向序列;
步骤S2442:拼接正向序列和反向序列以得到隐状态序列。
请参阅图19,在某些实施方式中,第一处理器101设置在第一电子终端100,第二处理器201设置在第二电子终端200,处理方法包括:
步骤S211:在第一电子终端100和第二电子终端200载入文本序列预测模型,文本序列预测模型包括第一层、第二层和第三层,第一层用于根据输入的待预测文本输出待预测文本的文本向量,第二层用于根据输入的文本向量输出待预测文本的隐状态序列,第三层用于根据输入的隐状态序列输出预测结果;
步骤S212:将第二层和第三层在第一处理器101禁用;
步骤S213:将第一层在第二处理器201禁用。
请参阅图20,在某些实施方式中,第一处理器101和第二处理器201设置在第二电子终端200,处理方法包括:
步骤S214:在第二电子终端200载入文本序列预测模型,文本序列预测模型包括第一层、第二层和第三层,第一层用于根据输入的待预测文本输出待预测文本的文本向量,第二层用于根据输入的文本向量输出待预测文本的隐状态序列,第三层用于根据输入的隐状态序列输出预测结果;
步骤S215:将第一层限定在第一处理器101;
步骤S216:将第二层和第三层限定在第二处理器201。
在某些实施方式中,第一层为BERT模型,第二层为Bi-LSTM模型,第三层为CRF模型,BERT模型的输出作为Bi-LSTM模型的输入,Bi-LSTM模型的输出作为CRF模型的输入。
在某些实施方式中,第二处理器201包括中央处理器。
请参阅图21,本发明实施方式的第一电子终端100,包括第一存储器102和第一处理器101,第一存储器102存储有计算机程序,第一处理器101用于执行程序以实现上述任一实施方式的用于第一处理器101的方法。
本发明实施方式的第一电子终端100,通过第一处理器101处理待预测文本从而得到处理数据,并通过第二处理器201处理处理数据从而得到预测结果,在保证文本序列预测的准确性的同时,可以提高预测速度,从而提高用户的体验。
需要说明的是,上述实施方式的用于第一处理器101的处理方法的解释说明和有益效果也适用于本实施方式的第一电子终端100,为避免冗余,在此不再详细展开。
请参阅图22,在某些实施方式中,第一电子终端100包括第二处理器201,第二处理器201用于执行程序以实现上述任一实施方式的用于第二处理器201的方法。
请参阅图23,本发明实施方式的第二电子终端200,包括第二存储器202和第二处理器201,第二存储器202存储有计算机程序,第二处理器201用于执行程序以实现上述任一实施方式的用于第二处理器201的方法。
本发明实施方式的第二电子终端200,通过第一处理器101处理待预测文本从而得到处理数据,并通过第二处理器201处理处理数据从而得到预测结果,在保证文本序列预测的准确性的同时,可以提高预测速度,从而提高用户的体验。
需要说明的是,上述实施方式的用于第一处理器101的处理方法的解释说明和有益效果也适用于本实施方式的第二电子终端200,为避免冗余,在此不再详细展开。
请参阅图24,本发明实施方式的文本序列的处理系统1000,包括上述的第一电子终端100和上述的第二电子终端200。
本发明实施方式的处理系统1000,通过第一处理器101处理待预测文本从而得到处理数据,并通过第二处理器201处理处理数据从而得到预测结果,在保证文本序列预测的准确性的同时,可以提高预测速度,从而提高用户的体验。
需要说明的是,上述实施方式的用于第一处理器101的处理方法的解释说明和有益效果也适用于本实施方式的处理系统1000,为避免冗余,在此不再详细展开。
在本发明中,计算机程序包括计算机程序代码。计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart MediaCard,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。处理器可以是中央处理单元(CentralProcessing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (18)

1.一种文本序列的处理方法,用于第一处理器,其特征在于,所述第一处理器用于并行计算,所述处理方法包括:
获取待预测文本;
处理所述待预测文本以得到所述待预测文本的处理数据;
将所述处理数据发送至第二处理器,以使所述第二处理器处理所述处理数据以得到所述待预测文本的预测结果,所述第二处理器用于串行运算。
2.根据权利要求1所述的处理方法,其特征在于,所述处理数据包括所述待预测文本的文本向量,处理所述待预测文本以得到所述待预测文本的处理数据,包括:
处理所述待预测文本以得到所述文本向量;
将所述处理数据发送至第二处理器,以使所述第二处理器处理所述处理数据以得到所述待预测文本的预测结果,包括:
将所述文本向量发送至所述第二处理器,以使所述第二处理器处理所述文本向量以得到所述待预测文本的预测结果。
3.根据权利要求2所述的处理方法,其特征在于,所述第一处理器设置在第一电子终端,所述第二处理器设置在第二电子终端,所述处理方法包括:
在所述第一电子终端和所述第二电子终端载入文本序列预测模型,所述文本序列预测模型包括第一层、第二层和第三层,所述第一层用于根据输入的所述待预测文本输出所述待预测文本的文本向量,所述第二层用于根据输入的所述文本向量输出所述待预测文本的隐状态序列,所述第三层用于根据输入的所述隐状态序列输出所述预测结果;
将所述第二层和所述第三层在所述第一处理器禁用;
将所述第一层在所述第二处理器禁用。
4.根据权利要求2所述的处理方法,其特征在于,所述第一处理器和所述第二处理器设置在第一电子终端,所述处理方法包括:
在所述第一电子终端载入文本序列预测模型,所述文本序列预测模型包括第一层、第二层和第三层,所述第一层用于根据输入的所述待预测文本输出所述待预测文本的文本向量,所述第二层用于根据输入的所述文本向量输出所述待预测文本的隐状态序列,所述第三层用于根据输入的所述隐状态序列输出所述预测结果;
将所述第一层限定在所述第一处理器;
将所述第二层和所述第三层限定在所述第二处理器。
5.根据权利要求3或4所述的处理方法,其特征在于,所述第一层为BERT模型,所述第二层为Bi-LSTM模型,所述第三层为CRF模型,所述BERT模型的输出作为所述Bi-LSTM模型的输入,所述Bi-LSTM模型的输出作为所述CRF模型的输入。
6.根据权利要求1所述的处理方法,其特征在于,所述第一处理器包括图形处理器。
7.一种文本序列的处理方法,用于第二处理器,其特征在于,所述第二处理器用于串行运算,所述处理方法包括:
获取第一处理器发送的处理数据,所述处理数据由所述第一处理器处理待预测文本得到,所述第一处理器用于并行计算;
处理所述处理数据以得到所述待预测文本的预测结果。
8.根据权利要求7所述的处理方法,其特征在于,所述处理数据包括所述待预测文本的文本向量,获取第一处理器发送的处理数据,包括:
获取所述第一处理器发送的所述文本向量,所述文本向量由所述第一处理器处理所述待预测文本得到;
处理所述处理数据以得到所述待预测文本的预测结果,包括:
处理所述文本向量以得到所述待预测文本的预测结果。
9.根据权利要求8所述的处理方法,其特征在于,处理所述文本向量以得到所述待预测文本的预测结果,包括:
处理所述文本向量以得到所述待预测文本的隐状态序列;
处理所述隐状态序列以得到所述预测结果。
10.根据权利要求9所述的处理方法,其特征在于,处理所述文本向量以得到所述待预测文本的隐状态序列,包括:
处理所述文本向量以得到所述待预测文本的正向序列和反向序列;
拼接所述正向序列和所述反向序列以得到所述隐状态序列。
11.根据权利要求8所述的处理方法,其特征在于,所述第一处理器设置在第一电子终端,所述第二处理器设置在第二电子终端,所述处理方法包括:
在所述第一电子终端和所述第二电子终端载入文本序列预测模型,所述文本序列预测模型包括第一层、第二层和第三层,所述第一层用于根据输入的所述待预测文本输出所述待预测文本的文本向量,所述第二层用于根据输入的所述文本向量输出所述待预测文本的隐状态序列,所述第三层用于根据输入的所述隐状态序列输出所述预测结果;
将所述第二层和所述第三层在所述第一处理器禁用;
将所述第一层在所述第二处理器禁用。
12.根据权利要求8所述的处理方法,其特征在于,所述第一处理器和所述第二处理器设置在第二电子终端,所述处理方法包括:
在所述第二电子终端载入文本序列预测模型,所述文本序列预测模型包括第一层、第二层和第三层,所述第一层用于根据输入的所述待预测文本输出所述待预测文本的文本向量,所述第二层用于根据输入的所述文本向量输出所述待预测文本的隐状态序列,所述第三层用于根据输入的所述隐状态序列输出所述预测结果;
将所述第一层限定在所述第一处理器;
将所述第二层和所述第三层限定在所述第二处理器。
13.根据权利要求11或12所述的处理方法,其特征在于,所述第一层为BERT模型,所述第二层为Bi-LSTM模型,所述第三层为CRF模型,所述BERT模型的输出作为所述Bi-LSTM模型的输入,所述Bi-LSTM模型的输出作为所述CRF模型的输入。
14.根据权利要求7所述的处理方法,其特征在于,所述第二处理器包括中央处理器。
15.一种第一电子终端,其特征在于,包括第一存储器和第一处理器,所述第一存储器存储有计算机程序,所述第一处理器用于执行所述程序以实现权利要求1-6任一项所述的方法。
16.根据权利要求15所述的第一电子终端,其特征在于,所述第一电子终端包括第二处理器,所述第二处理器用于执行所述程序以实现权利要求7-14任一项所述的方法。
17.一种第二电子终端,其特征在于,包括第二存储器和第二处理器,所述第二存储器存储有计算机程序,所述第二处理器用于执行所述程序以实现权利要求7-14任一项所述的方法。
18.一种文本序列的处理系统,其特征在于,包括权利要求15所述的第一电子终端和权利要求17所述的第二电子终端。
CN201910641942.0A 2019-07-16 2019-07-16 处理方法、第一电子终端、第二电子终端和处理系统 Active CN110390100B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910641942.0A CN110390100B (zh) 2019-07-16 2019-07-16 处理方法、第一电子终端、第二电子终端和处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910641942.0A CN110390100B (zh) 2019-07-16 2019-07-16 处理方法、第一电子终端、第二电子终端和处理系统

Publications (2)

Publication Number Publication Date
CN110390100A true CN110390100A (zh) 2019-10-29
CN110390100B CN110390100B (zh) 2023-10-31

Family

ID=68286604

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910641942.0A Active CN110390100B (zh) 2019-07-16 2019-07-16 处理方法、第一电子终端、第二电子终端和处理系统

Country Status (1)

Country Link
CN (1) CN110390100B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111460258A (zh) * 2020-03-30 2020-07-28 上海交通大学 司法鉴定信息提取方法、系统、设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080103759A1 (en) * 2006-10-27 2008-05-01 Microsoft Corporation Interface and methods for collecting aligned editorial corrections into a database
CN102314513A (zh) * 2011-09-16 2012-01-11 华中科技大学 基于gpu的图像文本语义提取方法
CN103488662A (zh) * 2013-04-01 2014-01-01 哈尔滨工业大学深圳研究生院 基于图形处理单元的自组织映射神经网络聚类方法及系统
CN107688493A (zh) * 2016-08-05 2018-02-13 阿里巴巴集团控股有限公司 训练深度神经网络的方法、装置及系统
CN107871005A (zh) * 2017-11-14 2018-04-03 成都才智圣有科技有限责任公司 一种数据挖掘系统
CN109815952A (zh) * 2019-01-24 2019-05-28 珠海市筑巢科技有限公司 品牌名称识别方法、计算机装置及计算机可读存储介质
CN109840597A (zh) * 2017-11-28 2019-06-04 珠海市君天电子科技有限公司 一种模型预测方法、装置、电子设备及存储介质
CN109871541A (zh) * 2019-03-06 2019-06-11 电子科技大学 一种适用于多语言多领域的命名实体识别方法
CN109992671A (zh) * 2019-04-10 2019-07-09 出门问问信息科技有限公司 意图识别方法、装置、设备及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080103759A1 (en) * 2006-10-27 2008-05-01 Microsoft Corporation Interface and methods for collecting aligned editorial corrections into a database
CN102314513A (zh) * 2011-09-16 2012-01-11 华中科技大学 基于gpu的图像文本语义提取方法
CN103488662A (zh) * 2013-04-01 2014-01-01 哈尔滨工业大学深圳研究生院 基于图形处理单元的自组织映射神经网络聚类方法及系统
CN107688493A (zh) * 2016-08-05 2018-02-13 阿里巴巴集团控股有限公司 训练深度神经网络的方法、装置及系统
CN107871005A (zh) * 2017-11-14 2018-04-03 成都才智圣有科技有限责任公司 一种数据挖掘系统
CN109840597A (zh) * 2017-11-28 2019-06-04 珠海市君天电子科技有限公司 一种模型预测方法、装置、电子设备及存储介质
CN109815952A (zh) * 2019-01-24 2019-05-28 珠海市筑巢科技有限公司 品牌名称识别方法、计算机装置及计算机可读存储介质
CN109871541A (zh) * 2019-03-06 2019-06-11 电子科技大学 一种适用于多语言多领域的命名实体识别方法
CN109992671A (zh) * 2019-04-10 2019-07-09 出门问问信息科技有限公司 意图识别方法、装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘星 等: "基于GPU的异构并行环境下程序优化策略研究", 湖北第二师范学院学报, vol. 27, no. 08, pages 88 - 91 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111460258A (zh) * 2020-03-30 2020-07-28 上海交通大学 司法鉴定信息提取方法、系统、设备及存储介质
CN111460258B (zh) * 2020-03-30 2023-08-29 上海交通大学 司法鉴定信息提取方法、系统、设备及存储介质

Also Published As

Publication number Publication date
CN110390100B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
US11803711B2 (en) Depthwise separable convolutions for neural machine translation
US20200410396A1 (en) Implicit bridging of machine learning tasks
CN112131366B (zh) 训练文本分类模型及文本分类的方法、装置及存储介质
CN110516253B (zh) 中文口语语义理解方法及系统
CN111695345B (zh) 文本中实体识别方法、以及装置
CN112528672A (zh) 一种基于图卷积神经网络的方面级情感分析方法及装置
CN111737476A (zh) 文本处理方法、装置、计算机可读存储介质及电子设备
CN110298019A (zh) 命名实体识别方法、装置、设备及计算机可读存储介质
CN111626062B (zh) 文本语义编码方法及系统
CN109086303A (zh) 基于机器阅读理解的智能对话方法、装置、终端
WO2018145098A1 (en) Systems and methods for automatic semantic token tagging
WO2021135455A1 (zh) 语义召回方法、装置、计算机设备及存储介质
CN112084789B (zh) 文本处理方法、装置、设备及存储介质
CN110678882B (zh) 使用机器学习从电子文档选择回答跨距的方法及系统
CN112000805A (zh) 基于预训练模型的文本匹配方法、装置、终端及存储介质
CN110990555B (zh) 端到端检索式对话方法与系统及计算机设备
CN110309282A (zh) 一种答案确定方法及装置
CN110909550A (zh) 文本处理方法、装置、电子设备和可读存储介质
CN112163067A (zh) 一种语句答复方法、语句答复装置及电子设备
CN111046653B (zh) 一种语句识别方法、语句识别装置及智能设备
CN109472022A (zh) 基于机器学习的新词识别方法及终端设备
CN116662502A (zh) 基于检索增强的金融问答文本生成方法、设备及存储介质
US20230094730A1 (en) Model training method and method for human-machine interaction
CN110705212A (zh) 文本序列的处理方法、处理装置、电子终端和介质
Rana Eaglebot: A chatbot based multi-tier question answering system for retrieving answers from heterogeneous sources using BERT

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant