CN111435449B - 模型的自训练方法、装置、计算机设备及存储介质 - Google Patents

模型的自训练方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN111435449B
CN111435449B CN201811605200.4A CN201811605200A CN111435449B CN 111435449 B CN111435449 B CN 111435449B CN 201811605200 A CN201811605200 A CN 201811605200A CN 111435449 B CN111435449 B CN 111435449B
Authority
CN
China
Prior art keywords
training
model
trained
corpus
entity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811605200.4A
Other languages
English (en)
Other versions
CN111435449A (zh
Inventor
熊友军
罗沛鹏
廖洪涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN201811605200.4A priority Critical patent/CN111435449B/zh
Publication of CN111435449A publication Critical patent/CN111435449A/zh
Application granted granted Critical
Publication of CN111435449B publication Critical patent/CN111435449B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)

Abstract

本申请涉及一种模型的自训练方法,该方法包括:接收自定义的语料模板和实体;根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型。该模型的自训练方法只需要用户自定义语料模板和实体便可自动生成训练语料,并自动根据训练语料进行模型的训练得到目标模型,简单方便,实现了简易、便捷、高效地识别机器语料。此外,还提出了一种模型的自训练装置、计算机设备及存储介质。

Description

模型的自训练方法、装置、计算机设备及存储介质
技术领域
本发明涉及计算机处理领域,尤其是涉及一种模型的自训练方法、装置、计算机设备及存储介质。
背景技术
随着计算能力的提升和深度学习算法的广泛应用,越来越多的问题能够被深度学习解决。然而,深度学习技术具有一定的门槛,需要比较扎实的数学、编程基础。故,传统的深度学习应用的门槛高。
发明内容
基于此,有必要针对上述问题,提供了一种门槛低的模型的自训练方法、装置、计算机设备及存储介质。
第一方面,本发明实施例提供一种模型的自训练方法,所述方法包括:
接收自定义的语料模板和实体;
根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;
将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型。
在其中一个实施例中,当所述待训练模型为意图识别模型时,所述文本标注是根据所述语料模板的类型确定的;当所述待训练模型为实体识别模型时,所述文本标注是根据所述训练样本中的实体的类型确定的。
在其中一个实施例中,在所述接收自定义的语料模板和实体之前,还包括:接收针对应用的模型训练请求,根据所述训练请求为所述应用的模型分配唯一的模型标识,所述模型标识用于区分不同应用的模型;所述接收自定义的语料模板和实体,包括:接收与所述模型标识对应的自定义语料模板和实体。
在其中一个实施例中,在所述根据所述语料模板和实体生成训练语料之后,还包括:根据预设规则对所述训练语料中的训练文本进行检查,所述预设规则包括是否存在重复配置的训练文本、训练文本的长度是否符合预设长度中的至少一种;当所述训练文本不符合所述预设规则时,则生成提醒通知。
在其中一个实施例中,在所述根据所述语料模板和实体生成训练语料之后,还包括:统计训练服务器的剩余计算资源,当所述剩余计算资源大于预设资源阈值时,则将所述待训练模型的训练任务发送给所述训练服务器;所述将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型,包括:通过所述训练服务器将所述所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型。
在其中一个实施例中,所述统计训练服务器的剩余计算资源,包括:获取影响所述训练服务器剩余计算资源的指标,所述指标包括:内存的占用、CPU使用率、GPU使用率,GPU的显存中的至少一种;获取正在训练的模型数量和所述训练语料的大小;根据所述指标、所述正在训练的模型数量和所述训练语料的大小计算得到所述训练服务器的剩余计算资源。
在其中一个实施例中,所述方法还包括:获取所述目标模型对应的模型标识,当所述模型标识对应的目标模型为第一次训练时,则将所述目标模型加载到所述预测服务器的内存,当加载完成后,启动所述目标模型提供意图预测服务;当所述模型标识对应的目标模型不是第一次训练时,则将所述目标模型加载到所述预测服务器的内存,当加载完成后,将预测调用从所述模型标识对应的旧的模型切换到所述目标模型。
第二方面,本发明实施例提供一种模型的自训练装置,所述装置包括:
接收模块,用于接收自定义的语料模板和实体;
生成模块,用于根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;
训练模块,用于将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型。
在其中一个实施例中,上述模型的自训练装置还包括:分配模块,用于接收针对应用的模型训练请求,根据所述训练请求为所述应用的模型分配唯一的模型标识,所述模型标识用于区分不同应用的模型;所述接收模块还用于接收与所述模型标识对应的自定义语料模板和实体。
在其中一个实施例中,上述模型的自训练装置还包括:检查模块,用于根据预设规则对所述训练语料中的训练文本进行检查,所述预设规则包括是否存在重复配置的训练文本、训练文本的长度是否符合预设长度中的至少一种,当所述训练文本不符合所述预设规则时,则生成提醒通知。
在其中一个实施例中,上述模型的自训练装置还包括:统计模块,用于统计训练服务器的剩余计算资源,当所述剩余计算资源大于预设资源阈值时,则将所述待训练模型的训练任务发送给所述训练服务器;所述训练模块还用于通过所述训练服务器将所述所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型。
在其中一个实施例中,所述统计模块还用于获取影响所述训练服务器剩余计算资源的指标,所述指标包括:内存的占用、CPU使用率、GPU使用率,GPU的显存中的至少一种;获取正在训练的模型数量和所述训练语料的大小;根据所述指标、所述正在训练的模型数量和所述训练语料的大小计算得到所述训练服务器的剩余计算资源。
在其中一个实施例中,上述模型的自训练装置还包括:启动模块,用于获取所述目标模型对应的模型标识,当所述模型标识对应的目标模型为第一次训练时,则将所述目标模型加载到所述预测服务器的内存,当加载完成后,启动所述目标模型提供意图预测服务;当所述模型标识对应的目标模型不是第一次训练时,则将所述目标模型加载到所述预测服务器的内存,当加载完成后,将预测调用从所述模型标识对应的旧的模型切换到所述目标模型。
第三方面,本发明实施例提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
接收自定义的语料模板和实体;
根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;
将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型。
第四方面,本发明实施例提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
接收自定义的语料模板和实体;
根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;
将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型。
上述模型的自训练方法,通过接收自定义的语料模板和实体,然后根据语料模板和实体生成训练语料,训练语料中包括训练文本和文本对应的标注,训练文本是根据语料模板和实体进行组合生成的,然后根据训练样本和相应的文本标注自动完成模型的训练,得到目标模型。上述模型的自训练方法只需要用户自定义配置语料模板和实体便可自动生成训练语料,并自动根据训练语料进行模型的训练,简单方便,门槛低。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为一个实施例中模型的自训练方法的应用环境图;
图2为一个实施例中模型的自训练方法的流程图;
图3为一个实施例中自定义语料模板和实体的界面示意图;
图4为一个实施例中深度卷积神经网络的模型示意图;
图5为一个实施例中模型的自训练方法的流程示意图;
图6为一个实施例中模型的自训练装置的结构框图;
图7为另一个实施例中模型的自训练装置的结构框图;
图8为又一个实施例中模型的自训练装置的结构框图;
图9为再一个实施例中模型的自训练装置的结构框图;
图10为还一个实施例中模型的自训练装置的结构框图;
图11为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一个实施例中模型的自训练方法的应用环境图。参照图1,该模型的自训练应用于模型的自训练系统。该模型的自训练系统包括终端110和服务器120。终端110和服务器120通过网络连接,终端110具体可以是台式终端或移动终端,移动终端具体可以是手机、平板电脑、笔记本电脑等中的至少一种。服务器120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。终端110用于接收自定义的语料模板和实体,然后将自定义的语料模板和实体上传到服务器120,服务器120接收到自定义的语料模板和实体后,根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型。
在另一个实施例中,上述模型的自训练方法可以直接应用于终端110,终端110用于接收自定义的语料模板和实体,根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型。
如图2所示,提出了一种模型的自训练方法,该模型的自训练方法可以应用于终端,也可以应用于服务器,本实施例中以应用于服务器为例说明,该模型的自训练方法具体包括以下步骤:
步骤202,接收自定义的语料模板和实体。
其中,语料模板是指生成训练语料的模板。实体是指与语料模板进行组合的关键字。语料模板是指用户自主设置的语料模板,实体也是用户自定义设置的。在一个音乐应用的场景中,可以设置相应的音乐模板,比如,设置{我想听[歌手]的歌}、{我要听[歌手]的[歌曲]}、{我想点一首[歌曲]}等模板,然后同时设置一些实体,比如,相应的歌手实体可以设置为:明星一、明星二、明星三等,歌曲设置为:生日快乐、圣诞快乐、流年、青春年华等等。如图3所示,为一个实施例中,自定义语料模板和实体的界面示意图,包括语料模板和实体的自定义设置。其中,语料模板中有相应的意图标注:Chinese to English。语料模板中包含的有代填实体的位置。通过将配置的实体和语料模板结合生成相应的训练语料。
在一个实施例中,可以针对不同的类型,配备不同类型的语料模板。比如,针对音乐类的,可以配备{我想听[歌手]的歌}这类的模板,对于影视类的,可以设置{我想看[演员]的电影}、{我想看[电影/电视剧]},对于故事类的,可以设置为{我想听[人物]的故事}等模板。
步骤204,根据语料模板和实体生成训练语料,训练语料中包括训练文本和对应的文本标注,训练文本是根据语料模板和实体进行组合生成的。
其中,在获取到语料模板和实体后通过自由组合生成相应的训练语料。假设有100个语料模板和100个实体,理论上就可以生成10000个训练文本。在一个实施例中,如果生成的语句数量过大,可以每个实体随机选择一部分语料模板进行训练语料的生成,比如,一个实体可以随机从100个模板中选择20个进行组合。在一个实施例中,模板分为不同类型的模板,比如,分为音乐类和影视类,对于不同的种类,需要将模板进行分开存储,以便确定生成的训练文本对应的类型。
训练文本是指用于训练模型的样本。文本标注是指对训练文本的标注,该模型为有监督的训练模型,每个训练样本都对应有相应的样本标注。在一个实施例中,如果要训练的模型为实体识别模型,那么可以根据训练文本中包含的实体来确定相应的文本标注。如果要训练的模型为分类模型,那么可以分别设置正语料模板和负语料模板,相应的文本标注可以简单分为0和1,0表示正语料,1表示负语料。举个例子,对于垃圾分类,可以将脏语料对应的文本标注设为1,将正常语料对应的文本标注设为0。
如果要训练的模型是意图识别模型,那么可以根据语料模板的类型来确定相应的文本标注。在一个实施例中,如果是音乐类的标注为0,如果是故事类的标注为1,如果是影视类的标注为2。那么就可以根据不同类型的语料模板生成的语料类型来确定相应的文本标注。比如,如果生成的训练文本为:我想听明星一的歌,相应的标注为0;我想听明星一的故事,相应的标注为1;我想看明星一的电影,相应的标注为2。
步骤206,将训练文本作为待训练模型的输入,将对应的文本标注作为待训练模型的期望输出对模型进行训练,得到目标模型。
其中,在得到训练语料后,即得到训练文本和对应的文本标注后,分别将训练文本作为待训练模型的输入,将相应的文本标注作为模型的期望输出来对模型进行训练,然后得到目标模型。待训练模型可以是意图识别模型,也可以是实体识别模型,还可以是分类模型等。意图识别模型用于对文本的意图进行识别,比如,识别文本的意图是想听故事,还是想听音乐等。实体识别模型是指文本中实体进行识别。分类模型用于对文本进行分类。
目标模型是指训练完成后得到的模型。目标模型用于后续的预测。比如,如果目标模型为目标实体识别模型,那么该目标模型的目的是就是预测出输入文本中的实体。在一个音乐应用场景的实施例中,通过识别文本中的实体来为用户查询想要听的音乐。比如,输入“我想听明星一的歌”,通过识别实体“明星一”就可以在相应的音乐曲库中查找到明星一相应的歌曲列表。
待训练模型是基于深度学习算法建立的,在一个实施例中,待训练模型是基于卷积神经网络模型(CNN)建立的,该模型包括输入层,卷积层、池化层和全连接层,其中,卷积层可以有多个,池化层也可以有多个,如图4所示,为一个实施例中,深度卷积神经网络的模型示意图。具体地,通过将训练文本转换为向量的形式作为输入层的输入。输入层对应的文本输入可以表示如下:令为一个长度为n的文本中第i个字的字向量,维度为k。令表示在长度为n的文本中,第i个字到第j个字的字向量拼接。卷积层用于根据卷积核进行卷积运算,在一个实施例中,卷积层中可以令h为卷积核所围窗口中单词的个数,卷积核的尺寸为h*k;令/>为卷积核的权重矩阵;令ci=f(w*xi:i+h-1+b)为卷积核在字i位置上的输出,/>为偏置(bias),f为激活函数;c=[c1,c2,…,cn-h+1]为得到的卷积层特征。池化层采用max-pooling(最大池化),即输出卷积层每个特征的最大值。最后一层输出层是采用softmax的全连接层。上述模型的自训练方法只需要用户自定义配置语料模板和实体即可,操作简便,门槛低,且有利于降低开发成本。
上述模型的自训练方法,通过接收自定义的语料模板和实体,然后根据语料模板和实体生成训练语料,训练语料中包括训练文本和文本对应的标注,训练文本是根据语料模板和实体进行组合生成的,然后根据训练样本和相应的文本标注自动完成模型的训练,得到目标模型。上述模型的自训练方法只需要用户自定义配置语料模板和实体便可自动生成训练语料,并自动根据训练语料进行模型的训练,简单方便,门槛低。
在一个实施例中,当待训练模型为意图识别模型时,文本标注是根据语料模板的类型确定的;当待训练模型为实体识别模型时,文本标注是根据训练样本中的实体确定的。
其中,待训练模型可以是意图识别模型,也可以是实体识别模型,当然也可以是分类模型等。针对不同的待训练模型,相应的文本标注不同。对于意图识别模型,其目的是为了识别用户的意图,比如,识别用户是想听故事,还是想听音乐,或者想看电影。那么就可以根据语料模板的类型来进行相应的文本标注,语料模板根据不同的意图分为不同类型,比如,分为音乐类的模板、故事类的模板和影视类的模板,所以根据语料模板的类型就可以确定相应的意图文本标注。
对于实体识别模型,其目的是识别训练样本中的实体,所以对应的文本标注可以根据训练样本中的实体确定。在一个实施例中,针对训练文本中的每个字都对应有相应的标注。比如,采用通用的BIO格式(B表示实体的开始、I表示实体的其他部分、0表示非实体的字)对训练文本中的每个字进行标注。根据实体的具体类型决定需要标注的标签,然后采用“B-类型”标注词条开头的词,采用“I-类型”标注词条的非开头,用“0”表示其他非实体部分。举个例子,“我很生气啊”根据实体“生气”的类型为“ANGRY”,可以对应的标注为“我0很0生B-ANGRY气I-ANGRY啊0”。根据语料模板中要填充的实体来预先设置不同的实体类型。比如,语料模板为{我要听[歌手]的[歌曲]},如果是歌手的名字实体,则标注为“SINGER”,如果是歌曲的名字的实体,则标注为“SONG”,比如,如果生成的训练文本为“我想听[明星一]的[笨小孩]”,那么每个字对应的文本标注为“我0想0听0明B-SINGER星I-SINGER一I-SINGER的0笨B-SONG小I-SONG孩I-SONG”。
在一个实施例中,在接收自定义的语料模板和实体之前,还包括:接收针对应用的模型训练请求,根据训练请求为应用的模型分配唯一的模型标识,模型标识用于区分不同应用的模型;接收自定义的语料模板和实体,包括:接收与模型标识对应的自定义语料模板和实体。
其中,为了很好地区分和管理模型,针对每个注册用户的每个应用分配一个唯一的模型标识,每个应用的数据、语料、参数、模型均靠模型标识来区分。由于该平台可以为很多应用提供模型的训练,所以需要分配模型标识来区分不同应用对应的模型。具体地,在接收到针对目标应用的模型训练请求后,根据该训练请求为目标应用的模型分配唯一的模型标识。模型标识用于区分不同应用的模型,针对每个应用分配唯一的模型,所以也可以称为“app ID”。
在一个实施例中,在根据语料模板和实体生成训练语料之后,还包括:根据预设规则对训练语料中的训练文本进行检查,预设规则包括是否存在重复配置的训练文本、训练文本的长度是否符合预设长度中的至少一种;当训练文本不符合预设规则时,则生成提醒通知。
其中,为了避免语料的不规范导致训练异常或不准确,当用户配置了训练语料后,设置语料检查规则自动对训练语料进行检测,比如,检测是否出现了配置重复的文本,尤其是对分类语料,不同类别中可能出现较多的重复语料,所以要进行检查,提醒用户进行修改。另外,还需要检测是否有配置异常的数据,比如,检测语料的长度是否超过了预设的长度,如果超过了预设长度,则提醒用户改写成规范的。当训练文本不符合设置的任意一个规则时,则生成相应的提醒通知,提醒用户进行相应的规范改写。
在一个实施例中,在根据语料模板和实体生成训练语料之后,还包括:统计训练服务器的剩余计算资源,当剩余计算资源大于预设资源阈值时,则将模型的训练任务发送给训练服务器;将训练文本作为待训练模型的输入,将对应的文本标注作为待训练模型的期望输出对待训练模型进行训练,得到目标模型,包括:通过训练服务器将训练文本作为待训练模型的输入,将对应的文本标注作为待训练模型的期望输出对待训练模型进行训练,得到目标模型。
其中,由于该平台面向的是多个使用者,所以在同一时间可能有多个模型需要训练,在生成训练语料后,要统计训练服务器的计算资源,以便于分配适量的资源进行训练,如果资源不够,则需要排队。具体地,统计训练服务器的剩余计算资源,然后判断剩余计算资源是否大于预设资源阈值,如果是,则将待训练模型的训练任务发送给训练服务器,以使训练服务器对该待训练模型进行训练得到目标模型。在一个实施例中,由于基于深度学习的模型的训练需要消耗大量运算,为了不影响使用者的已有模型的预测,需要部署两台服务器,一台是预测服务器,用于模型的预测。另一台是训练服务器,用于执行训练任务,对模型进行训练。这样,即使在训练时的计算量过大致使训练服务器宕机,也不会影响预测服务器。另外,训练服务器可以采用离线服务器,减少网络的占用。
在一个实施例中,统计训练服务器的剩余计算资源,包括:获取影响训练服务器剩余计算资源的指标,指标包括:内存的占用、CPU使用率、GPU(图形处理器)使用率,GPU的显存中的至少一种;获取正在训练的模型数量和训练语料的大小;根据指标、正在训练的模型数量和训练语料的大小计算得到训练服务器的剩余计算资源。
其中,训练服务器的剩余计算资源的计算是通过统计多个指标来计算得到的。统计的指标包括:内存的占用、CPU的使用率、GPU的使用率、GPU的显存。然后获取正在训练的模型数量和本次待训练模型对应的训练语料的大小,训练语料的大小是指训练语料所占的空间大小。然后计算得到训练服务器的剩余计算资源。具体地,可以通过计算CPU、GPU的平均使用率和内存需求来衡量剩余计算资源。对于CPU、GPU的平均使用率可以采用如下计算方式:平均使用率=使用率/正在训练数量。对于内存、显存的判断为:内存需求=已使用的内存/正在训练的数量+训练语料的大小。
在一个实施例中,上述模型的自训练方法还包括:根据模型标识将目标模型发布到预测服务器,并在日志中记录目标模型的版本号和相应的训练状态,预测服务器用于承载训练好的目标模型。
其中,在训练得到目标模型后,将目标模型同步到预测服务器,将目标模型与模型标识进行关联存储。同时在日志中根据模型标识记录目标模型的版本号和相应的训练状态。由于同一模型标识对应的模型处于不断更新中,当该目标模型是第一次训练得到的,记录为版本1,如果是第二训练得到的,那么相应的版本号记为2,依次类推。训练状态是指模型是否训练成功的状态,训练状态可以分为成功、失败(服务器问题)、报错(代码问题)。通过记录的日志可以及时了解各个模型的版本和状态。预测服务器用于承载训练好的目标模型,通过将目标模型发布到预测服务器来提供相应的预测服务。
在一个实施例中,上述模型的自训练方法还包括:当模型标识对应的目标模型为第一次训练时,则将目标模型加载到预测服务器的内存,当加载完成后,启动目标模型提供预测服务;当模型标识对应的目标模型不是第一次训练时,则将目标模型加载到预测服务器的内存,当加载完成后,将预测调用从模型标识对应的旧的模型切换到目标模型。
其中,当模型标识对应的目标模型为第一次训练时,则将目标模型加载到预测服务器的内存,然后启动该目标模型即可提供相应的预测服务。由于模型一般处于不断地更新换代中,所以在之前可能已经存在了模型标识对应的预测模型。当模型标识对应的目标模型不是第一次训练,将目标模型加载到预测服务器的内存后,需要迅速将预测的调用从老模型切换到该新的目标模型,然后再将老模型停止,这样可以保证线上的预测模型可以不间断地进行预测。
如图5所示,为一个实施例中,模型的自训练方法的流程示意图。(1)首先为使用者的每个应用分配唯一的模型标识,不同应用对应不同的模型标识。(2)接收录入的语料模板和实体。(3)根据语料模板和实体生成训练语料。(4)将训练语料发送到训练服务器,新建一个训练任务。(5)统计训练服务器的剩余计算资源,便于分配适量资源进行训练,如果资源不够,则排队等待。(6)记录训练模型的版本号和训练状态,对于同一模型标识对应的模型每重新训练一次,则版本号自动加1。训练状态分为成功、失败和报错。(7)将训练服务器训练得到的目标模型同步到预测服务器,根据模型标识将训练好的目标模型同步到预测服务器的相应位置。(8)判断目标模型是不是第一次训练,如果是,则进入(9),如果不是,则进入(10)。(9)将目标模型加载到预测服务器的内存,然后启动该模型,提供预测服务,供使用者调用。(10)先保持老模型预测不变,将新模型加载到新的内存地址,并在新内存上初始化模型,同时将老模型的调用改为新模型的调用,提供预测服务。(11)将老模型服务停掉,释放老模型的内存空间。
如图6所示,在一个实施例中,提出了一种模型的自训练装置,该装置包括:
接收模块602,用于接收自定义的语料模板和实体;
生成模块604,用于根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;
训练模块606,用于将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型。
在一个实施例中,当所述待训练模型为意图识别模型时,所述文本标注是根据所述语料模板的类型确定的;当所述待训练模型为实体识别模型时,所述文本标注是根据所述训练样本中的实体确定的。
如图7所示,在一个实施例中,在所述接收自定义的语料模板和实体之前,所述装置还包括:
分配模块601,用于接收针对应用的模型训练请求,根据所述训练请求为所述应用的模型分配唯一的模型标识,所述模型标识用于区分不同应用的模型;
所述接收模块还用于接收与所述模型标识对应的自定义语料模板和实体。
如图8所示,上述模型的自训练装置还包括:
检查模块605,用于根据预设规则对所述训练语料中的训练文本进行检查,所述预设规则包括是否存在重复配置的训练文本、训练文本的长度是否符合预设长度中的至少一种,当所述训练文本不符合所述预设规则时,则生成提醒通知。
如图9所示,上述模型的自训练装置还包括:
统计模块608,用于统计训练服务器的剩余计算资源,当所述剩余计算资源大于预设资源阈值时,则将所述待训练模型的训练任务发送给所述训练服务器;
所述训练模块还用于通过所述训练服务器将所述所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型。
在一个实施例中,所述统计模块还用于获取影响所述训练服务器剩余计算资源的指标,所述指标包括:内存的占用、CPU使用率、GPU使用率,GPU的显存中的至少一种;获取正在训练的模型数量和所述训练语料的大小;根据所述指标、所述正在训练的模型数量和所述训练语料的大小计算得到所述训练服务器的剩余计算资源。
如图10所示,在一个实施例中,上述模型的自训练装置还包括:
启动模块610,用于获取所述目标模型对应的模型标识,当所述模型标识对应的目标模型为第一次训练时,则将所述目标模型加载到所述预测服务器的内存,当加载完成后,启动所述目标模型提供意图预测服务;当所述模型标识对应的目标模型不是第一次训练时,则将所述目标模型加载到所述预测服务器的内存,当加载完成后,将预测调用从所述模型标识对应的旧的模型切换到所述目标模型。
图11示出了一个实施例中计算机设备的内部结构图。该计算机设备可以是终端,也可以是服务器。如图11所示,该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现模型的自训练方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行模型的自训练方法。网络接口用于与外界进行通信。本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的模型的自训练方法可以实现为一种计算机程序的形式,计算机程序可在如图11所示的计算机设备上运行。计算机设备的存储器中可存储组成该模型的自训练装置的各个程序模板。比如,接收模块602、生成模块604和训练模块606。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
接收自定义的语料模板和实体;
根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;
将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型。
在一个实施例中,当所述待训练模型为意图识别模型时,所述文本标注是根据所述语料模板的类型确定的;当所述待训练模型为实体识别模型时,所述文本标注是根据所述训练样本中的实体的类型确定的。
在一个实施例中,在所述接收自定义的语料模板和实体之前,所述计算机程序被所述处理器执行时,还用于执行以下步骤:接收针对应用的模型训练请求,根据所述训练请求为所述应用的模型分配唯一的模型标识,所述模型标识用于区分不同应用的模型;所述接收自定义的语料模板和实体,包括:接收与所述模型标识对应的自定义语料模板和实体。
在一个实施例中,在所述根据所述语料模板和实体生成训练语料之后,所述计算机程序被所述处理器执行时,还用于执行以下步骤:根据预设规则对所述训练语料中的训练文本进行检查,所述预设规则包括是否存在重复配置的训练文本、训练文本的长度是否符合预设长度中的至少一种;当所述训练文本不符合所述预设规则时,则生成提醒通知。
在一个实施例中,在所述根据所述语料模板和实体生成训练语料之后,所述计算机程序被所述处理器执行时,还用于执行以下步骤:统计训练服务器的剩余计算资源,当所述剩余计算资源大于预设资源阈值时,则将所述待训练模型的训练任务发送给所述训练服务器;所述将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型,包括:通过所述训练服务器将所述所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型。
在一个实施例中,所述统计训练服务器的剩余计算资源,包括:获取影响所述训练服务器剩余计算资源的指标,所述指标包括:内存的占用、CPU使用率、GPU使用率,GPU的显存中的至少一种;获取正在训练的模型数量和所述训练语料的大小;根据所述指标、所述正在训练的模型数量和所述训练语料的大小计算得到所述训练服务器的剩余计算资源。
在一个实施例中,所述计算机程序被所述处理器执行时,还用于执行以下步骤:获取所述目标模型对应的模型标识,当所述模型标识对应的目标模型为第一次训练时,则将所述目标模型加载到所述预测服务器的内存,当加载完成后,启动所述目标模型提供意图预测服务;当所述模型标识对应的目标模型不是第一次训练时,则将所述目标模型加载到所述预测服务器的内存,当加载完成后,将预测调用从所述模型标识对应的旧的模型切换到所述目标模型。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
接收自定义的语料模板和实体;
根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;
将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型。
在一个实施例中,当所述待训练模型为意图识别模型时,所述文本标注是根据所述语料模板的类型确定的;当所述待训练模型为实体识别模型时,所述文本标注是根据所述训练样本中的实体的类型确定的。
在一个实施例中,在所述接收自定义的语料模板和实体之前,所述计算机程序被所述处理器执行时,还用于执行以下步骤:接收针对应用的模型训练请求,根据所述训练请求为所述应用的模型分配唯一的模型标识,所述模型标识用于区分不同应用的模型;所述接收自定义的语料模板和实体,包括:接收与所述模型标识对应的自定义语料模板和实体。
在一个实施例中,在所述根据所述语料模板和实体生成训练语料之后,所述计算机程序被所述处理器执行时,还用于执行以下步骤:根据预设规则对所述训练语料中的训练文本进行检查,所述预设规则包括是否存在重复配置的训练文本、训练文本的长度是否符合预设长度中的至少一种;当所述训练文本不符合所述预设规则时,则生成提醒通知。
在一个实施例中,在所述根据所述语料模板和实体生成训练语料之后,所述计算机程序被所述处理器执行时,还用于执行以下步骤:统计训练服务器的剩余计算资源,当所述剩余计算资源大于预设资源阈值时,则将所述待训练模型的训练任务发送给所述训练服务器;所述将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型,包括:通过所述训练服务器将所述所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型。
在一个实施例中,所述统计训练服务器的剩余计算资源,包括:获取影响所述训练服务器剩余计算资源的指标,所述指标包括:内存的占用、CPU使用率、GPU使用率,GPU的显存中的至少一种;获取正在训练的模型数量和所述训练语料的大小;根据所述指标、所述正在训练的模型数量和所述训练语料的大小计算得到所述训练服务器的剩余计算资源。
在一个实施例中,所述计算机程序被所述处理器执行时,还用于执行以下步骤:获取所述目标模型对应的模型标识,当所述模型标识对应的目标模型为第一次训练时,则将所述目标模型加载到所述预测服务器的内存,当加载完成后,启动所述目标模型提供意图预测服务;当所述模型标识对应的目标模型不是第一次训练时,则将所述目标模型加载到所述预测服务器的内存,当加载完成后,将预测调用从所述模型标识对应的旧的模型切换到所述目标模型。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (8)

1.一种模型的自训练方法,其特征在于,所述方法包括:
接收针对应用的模型训练请求,根据所述训练请求为所述应用的模型分配唯一的模型标识,所述模型标识用于区分不同应用的模型;
接收与所述模型标识对应的自定义的语料模板和实体;
根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;
统计训练服务器的剩余计算资源,当所述剩余计算资源大于预设资源阈值时,则将待训练模型的训练任务发送给所述训练服务器;
将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型;具体包括:通过所述训练服务器将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型。
2.根据权利要求1所述的方法,其特征在于,当所述待训练模型为意图识别模型时,所述文本标注是根据所述语料模板的类型确定的;当所述待训练模型为实体识别模型时,所述文本标注是根据所述训练文本中的实体的类型确定的。
3.根据权利要求1所述的方法,其特征在于,在所述根据所述语料模板和实体生成训练语料之后,还包括:
根据预设规则对所述训练语料中的训练文本进行检查,所述预设规则包括是否存在重复配置的训练文本、训练文本的长度是否符合预设长度中的至少一种;
当所述训练文本不符合所述预设规则时,则生成提醒通知。
4.根据权利要求1所述的方法,其特征在于,所述统计训练服务器的剩余计算资源,包括:
获取影响所述训练服务器剩余计算资源的指标,所述指标包括:内存的占用、CPU使用率、GPU使用率,GPU的显存中的至少一种;
获取正在训练的模型数量和所述训练语料的大小;
根据所述指标、所述正在训练的模型数量和所述训练语料的大小计算得到所述训练服务器的剩余计算资源。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述目标模型对应的模型标识,当所述模型标识对应的目标模型为第一次训练时,则将所述目标模型加载到预测服务器的内存,当加载完成后,启动所述目标模型提供意图预测服务;
当所述模型标识对应的目标模型不是第一次训练时,则将所述目标模型加载到预测服务器的内存,当加载完成后,将预测调用从所述模型标识对应的旧的模型切换到所述目标模型。
6.一种模型的自训练装置,其特征在于,所述装置包括:
控制模块,用于接收针对应用的模型训练请求,根据所述训练请求为所述应用的模型分配唯一的模型标识,所述模型标识用于区分不同应用的模型;
接收模块,用于接收与所述模型标识对应的自定义的语料模板和实体;
生成模块,用于根据所述语料模板和实体生成训练语料,所述训练语料中包括训练文本和对应的文本标注,所述训练文本是根据所述语料模板和实体进行组合生成的;
统计模块,用于统计训练服务器的剩余计算资源,当所述剩余计算资源大于预设资源阈值时,则将待训练模型的训练任务发送给所述训练服务器;
训练模块,用于将所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,训练完成得到目标模型;具体用于通过所述训练服务器将所述所述训练文本作为待训练模型的输入,将对应的文本标注作为所述待训练模型的期望输出对所述待训练模型进行训练,得到目标模型。
7.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至5中任一项所述方法的步骤。
8.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至5中任一项所述方法的步骤。
CN201811605200.4A 2018-12-26 2018-12-26 模型的自训练方法、装置、计算机设备及存储介质 Active CN111435449B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811605200.4A CN111435449B (zh) 2018-12-26 2018-12-26 模型的自训练方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811605200.4A CN111435449B (zh) 2018-12-26 2018-12-26 模型的自训练方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN111435449A CN111435449A (zh) 2020-07-21
CN111435449B true CN111435449B (zh) 2024-04-02

Family

ID=71579792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811605200.4A Active CN111435449B (zh) 2018-12-26 2018-12-26 模型的自训练方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN111435449B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112102263A (zh) * 2020-08-31 2020-12-18 深圳思谋信息科技有限公司 缺陷检测模型生成系统、方法、装置和计算机设备
CN112257874A (zh) * 2020-11-13 2021-01-22 腾讯科技(深圳)有限公司 分布式机器学习系统的机器学习方法、装置、系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107665362A (zh) * 2017-09-26 2018-02-06 联想(北京)有限公司 用于实现机器人聊天的训练方法、预测答案的方法及装置
CN108509411A (zh) * 2017-10-10 2018-09-07 腾讯科技(深圳)有限公司 语义分析方法和装置
CN108563488A (zh) * 2018-01-05 2018-09-21 新华三云计算技术有限公司 模型训练方法及装置、构建容器镜像的方法及装置
WO2018196684A1 (zh) * 2017-04-24 2018-11-01 北京京东尚科信息技术有限公司 对话机器人生成方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9910847B2 (en) * 2014-09-30 2018-03-06 Accenture Global Services Limited Language identification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018196684A1 (zh) * 2017-04-24 2018-11-01 北京京东尚科信息技术有限公司 对话机器人生成方法及装置
CN107665362A (zh) * 2017-09-26 2018-02-06 联想(北京)有限公司 用于实现机器人聊天的训练方法、预测答案的方法及装置
CN108509411A (zh) * 2017-10-10 2018-09-07 腾讯科技(深圳)有限公司 语义分析方法和装置
CN108563488A (zh) * 2018-01-05 2018-09-21 新华三云计算技术有限公司 模型训练方法及装置、构建容器镜像的方法及装置

Also Published As

Publication number Publication date
CN111435449A (zh) 2020-07-21

Similar Documents

Publication Publication Date Title
US11631029B2 (en) Generating combined feature embedding for minority class upsampling in training machine learning models with imbalanced samples
CN110287477B (zh) 实体情感分析方法及相关装置
US10733980B2 (en) Thematic segmentation of long content using deep learning and contextual cues
CN107391545B (zh) 一种对用户进行分类的方法、输入方法及装置
US9116879B2 (en) Dynamic rule reordering for message classification
WO2021043076A1 (zh) 网络发布数据处理方法、装置、计算机设备和存储介质
GB2544857A (en) Multimedia document summarization
CN111435449B (zh) 模型的自训练方法、装置、计算机设备及存储介质
CN107688651B (zh) 新闻情感方向判断方法、电子设备及计算机可读存储介质
US11934486B2 (en) Systems and methods for data stream using synthetic data
CN112784168B (zh) 信息推送模型训练方法以及装置、信息推送方法以及装置
CN114218958A (zh) 工单处理方法、装置、设备和存储介质
US11328732B2 (en) Generating summary text compositions
WO2020140639A1 (zh) 基于机器学习的报表生成方法、装置和计算机设备
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN113849474A (zh) 数据处理方法、装置、电子设备和可读存储介质
WO2019227629A1 (zh) 文本信息的生成方法、装置、计算机设备及存储介质
CN110909768B (zh) 一种标注数据获取方法及装置
CN112256863A (zh) 一种确定语料意图的方法、装置及电子设备
US20230351121A1 (en) Method and system for generating conversation flows
CN112579149A (zh) 模型训练程序镜像的生成方法、装置、设备及存储介质
CN112069803A (zh) 文本备份方法、装置、设备及计算机可读存储介质
CN115618054A (zh) 视频推荐方法及装置
CN115033699A (zh) 基金用户分类方法及装置
WO2020132985A1 (zh) 模型的自训练方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant