CN111222344A - 训练神经网络的方法、装置及电子设备 - Google Patents

训练神经网络的方法、装置及电子设备 Download PDF

Info

Publication number
CN111222344A
CN111222344A CN202010006329.4A CN202010006329A CN111222344A CN 111222344 A CN111222344 A CN 111222344A CN 202010006329 A CN202010006329 A CN 202010006329A CN 111222344 A CN111222344 A CN 111222344A
Authority
CN
China
Prior art keywords
text
neural network
emotion
attention
corpus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010006329.4A
Other languages
English (en)
Other versions
CN111222344B (zh
Inventor
梁忠平
蒋亮
温祖杰
张家兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202010006329.4A priority Critical patent/CN111222344B/zh
Publication of CN111222344A publication Critical patent/CN111222344A/zh
Application granted granted Critical
Publication of CN111222344B publication Critical patent/CN111222344B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本说明书实施例提供训练神经网络的方法、装置及电子设备,其中一个方法包括:获取经情感标注的语料文本,其中,所述语料文本的情感极性被标注,以及所述语料文本中作为判断情感极性的依据的依据文本片段被标注;向基于注意力的神经网络输入语料文本;以及通过监督所述依据文本片段是否作为判断语料文本的依据而训练所述神经网络。

Description

训练神经网络的方法、装置及电子设备
技术领域
本说明书涉及制图技术领域,更具体地,涉及一种训练用于情感分析的基于注意力的神经网络的方法、装置及电子设备。
背景技术
情感分析是自然语言处理中一项语义理解任务。情感分析可以应用到很多场景中。例如,通过用户的影评判断其对电影的喜爱程度,通过用户微博判断其心情,或者通过商品评论判断用户对商品的情感趋向进而判断商品质量。
可以利用基于注意力的神经网络来进行情感分析。
因此,需要提供训练用于情感分析的基于注意力的神经网络的方案。
发明内容
本说明书的实施例提供训练用于情感分析的基于注意力的神经网络的新技术方案。
根据本说明书的第一方面,提供了一种训练用于情感分析的基于注意力的神经网络的方法,包括:获取经情感标注的语料文本,其中,所述语料文本的情感极性被标注,以及所述语料文本中作为判断情感极性的依据的依据文本片段被标注;向基于注意力的神经网络输入语料文本;以及通过监督所述依据文本片段是否作为判断语料文本的依据而训练所述神经网络。
根据本说明书的第二方面,提供了一种训练用于情感分析的基于注意力的神经网络的装置,包括:获取模块,获取经情感标注的语料文本,其中,所述语料文本的情感极性被标注,以及所述语料文本中作为判断情感极性的依据的依据文本片段被标注;输入模块,向基于注意力的神经网络输入语料文本;训练模块,通过监督所述依据文本片段是否作为判断语料文本的依据而训练所述神经网络。
根据本说明书的第三方面,提供了一种电子设备,包括处理器和存储器,存储器存储可执行指令,当运行电子设备时,可执行指令控制处理器执行根据实施例的训练用于情感分析的基于注意力的神经网络的方法,以训练用于情感分析的基于注意力的神经网络。
根据本说明书的第四方面,提供了一种情感分析方法,包括:向使用上述训练方法所训练的神经网络输入文本;以及从所述神经网络获取所输入的文本的情感信息。
根据本说明书的第五方面,提供了一种电子设备,包括处理器和存储器,存储器存储可执行指令,当运行电子设备时,可执行指令控制处理器执行上述情感分析方法以获取所输入的文本的情感信息。
在不同实施例中,可以提高训练用于情感分析的基于注意力的神经网络的性能。
通过以下参照附图对本说明书的示例性实施例的详细描述,本说明书的实施例的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了的实施例,并且连同其说明一起用于解释各个实施例的原理。
图1示出了根据一个实施例的训练用于情感分析的基于注意力的神经网络的方法的示意性流程图。
图2示出了根据一个实施例的训练用于情感分析的基于注意力的神经网络的装置置的示意性框图。
图3示出了根据一个实施例的电子设备的示意性框图。
图4示出了将实施例中的方案应用于BERT神经网络的过程。
具体实施方式
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
下面,参照附图描述本说明书的不同实施例和例子。
图1示出了根据一个实施例的训练用于情感分析的基于注意力的神经网络的方法的示意性流程图。
如图1所示,在步骤S12,获取经情感标注的语料文本,其中,所述语料文本的情感极性被标注,以及所述语料文本中作为判断情感极性的依据的依据文本片段被标注。
在步骤S14,向基于注意力的神经网络输入语料文本。
在步骤S16,通过监督所述依据文本片段是否作为判断语料文本的依据而训练所述神经网络。
这里,通过标注作为判断情感极性的依据的依据文本片段并且监督所述依据文本片段的作用,来训练基于注意力的神经网络。这可以提高所述神经网络的性能。
例如,所述情感极性包括正面情感、负面情感和中性情感中的至少一个。
例如,可以在基于注意力的神经网络的最后阶段,通过利用所述依据文本片段校正注意力,而实现对神经网络的训练。举例来说,在一个句子中,词A被标注为正面感情。可以利用词A的标注信息来校正在神经网络的注意力函数L,例如,神经网络的损失函数。例如,将所述依据文本片段的参数值设为B。可以通过将B结合进注意力函数L,来训练神经网络,从而提升所述神经网络的训练性能。相比于相比于纯依赖神经网络模型自己尝试和摸索注意力的方案,通过这种主动监督注意力的方式,可以使得神经网络更快速/更准确地收敛到期望的结果,从而极大地提升情感分类的精度。
所述基于注意力的神经网络可以是BERT神经网络。可以通过监督BERT神经网络的注意力值来训练所述BERT神经网络的变换器。例如,可以在BERT神经网络的最后一个自注意力层监督所述依据文本片段是否作为判断语料文本的依据。通过这种方式,可以使得所标注的依据文本片段较为有效地产生作用。
例如,可以在最后一个自注意力层的Query向量中包含依据文本片段的信息;通过所述Query向量判断输入语料中的目标文本片段是否是依据文本片段;以及如果是依据文本片段,则将该目标文本片段的注意力值设为1,或者如果是依据文本片段,则将该目标文本片段的注意力值设为0。
接着,可以将注意力监督的损失函数和情感分类损失函数相加,在训练阶段联合求解。这不是这里所关注的,因此,在这里省略对它的详细描述。
图2示出了根据一个实施例的训练用于情感分析的基于注意力的神经网络的装置的示意性框图。
如图2所示,训练用于情感分析的基于注意力的神经网络的装置20包括:获取模块22、输入模块24、训练模块26。
获取模块22获取经情感标注的语料文本,其中,所述语料文本的情感极性被标注,以及所述语料文本中作为判断情感极性的依据的依据文本片段被标注。
输入模块24向基于注意力的神经网络输入语料文本。
训练模块26通过监督所述依据文本片段是否作为判断语料文本的依据而训练所述神经网络。
图2的训练用于情感分析的基于注意力的神经网络的装置20可以实现图1的实施例中的方案,在这里省略重复的部分。
本说明书还提供一种电子设备。图3示出了电子设备300。
电子设备300可以训练用于情感分析的基于注意力的神经网络,也可以使用所训练的神经网络执行情感分析。
如图3所示,电子设备300包括处理器302、存储器304。电子设备300还可以包括显示屏310、用户接口312、摄像头314、音频/视频接口316、传感器318和通信部件320等。此外,电子设备300还可以还包括电源管理芯片306以及电池308等。电子设备300可以智能手机、平板电脑、笔记本电脑、台式机、服务器等。
处理器302可以是各种处理器。例如,它可以是ARM架构的处理器,诸如,苹果公司的应用处理器、高通公司的处理器、华为公司的处理器等。
存储器304可以存储电子设备300运行所需的底层软件、系统软件、应用软件、数据等。存储器304可以包括多种形式的存储器,例如,ROM、RAM、Flash等。
显示屏310可以是液晶显示屏、OLED显示屏等。在一个例子中,显示屏310可以是触摸屏。用户可以通过显示屏210进行输入操作。此外,用户还可以通过触摸屏进行指纹识别等。
用户接口312可以包括USB接口、闪电接口、键盘等。
摄像头314可以是单摄像头,也可以是多摄像头。此外,摄像头314可以用于用户的面容识别。
音频/视频接口316例如可以包括扬声器接口、麦克风接口、诸如HDMI的视频传输接口等。
传感器318例如可以包括陀螺仪、加速度计、温度传感器、湿度传感器、压力传感器等等。例如,通过传感器可以确定电子设备周围的环境等。
通信部件320例如可以包括WiFi通信部件、蓝牙通信部件、3G、4G和5G通信部件等。通过通信部件320,电子设备300可以被布置在网络中。
电源管理芯片306可以用于管理输入电子设备300电源功率,还可以对电池308进行管理,以保证较大的利用效率。电池308例如是锂离子电池等。
图3所示的电子设备仅是解释性的,并且决不是为了要限制本发明、其应用或用途。
电子设备300的存储器304可以存储可执行指令。当可执行指令被处理器302执行时实现上面所述的训练用于情感分析的基于注意力的神经网络的方法。
此外,这里还提供一种情感分析方法。该方法包括:向使用上述方法所训练的神经网络输入文本;以及从所述神经网络获取所输入的文本的情感信息。
当电子设备300的存储器304所存储可执行指令被处理器302执行时还可以实现上面所述的情感分析方法,以获取所输入的文本的情感信息。
图4示出了将实施例中的方案应用于BERT神经网络的过程。
如图4所示,在块42输入作为训练数据的文本。
所述文本的情感极性被标注,例如,正面情感、负面情感或者中性情感。此外,在文本中标出作为判断情感极性的重要依据的文本片段。
在块44,使用BERT神经网络模型的双向变换器对所输入的文本进行处理,以训练BERT神经网络模型。
在块46,监督训练BERT神经网络模型过程中的注意力。
这里,对BERT神经网络模型的最后分类阶段的注意力进行监督。监督的目标是判断某个文本片段是否是判断情感极性的重要依据(前面已经标注)。这样可以使得BERT神经网络模型在分类时,可以把注意力更多地放在文本中情感极性强烈的部分。这样可以使得BERT神经网络模型从文本中摘取出判断情感极性的重要依据,同时把噪音信息忽略掉。这可以大大提升情感分类的精度。例如,监督的目标是判断某个词是否是判断情感的依据词,如果是,则取值是1,否则取值是0。注意力监督的损失函数和情感分类损失函数相加,在训练阶段联合求解。
举例来说,在一个句子中,词“喜悦”被标注为正面感情,词“悲伤”被标注为负面感情,词“平静”被标注为中性情感。例如,将词“喜悦”的参数值设为1,词“悲伤”的参数值设为-1,词“平静”的参数值设为0。例如,在训练过程中,将上述参数值带入BERT的损失函数,从而实现模型的训练。可以通过多种方式将上述参数值带入BERT的损失函数,例如,可以通过相加、加权平均等方式直接利用所述参数值对BERT的损失函数进行操作,从而训练BERT神经网络;也可以设计包含所述参数值的注意力监督的损失函数,通过将注意力监督的损失函数和BERT神经网络的情感分类损失函数相加并联合求解,从而训练BERT神经网络。
在块48,得到情感分类结果。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。

Claims (10)

1.一种训练用于情感分析的基于注意力的神经网络的方法,包括:
获取经情感标注的语料文本,其中,所述语料文本的情感极性被标注,以及所述语料文本中作为判断情感极性依据的依据文本片段被标注;
向基于注意力的神经网络输入语料文本;以及
通过监督所述依据文本片段是否作为判断语料文本的依据而训练所述神经网络。
2.根据权利要求1所述的方法,其中,所述情感极性包括正面情感、负面情感和中性情感中的至少一个。
3.根据权利要求1所述的方法,其中,所述基于注意力的神经网络是BERT神经网络。
4.根据权利要求3所述的方法,其中,通过监督所述依据文本片段是否作为判断语料文本的依据而训练所述神经网络包括:通过监督所述BERT神经网络的注意力值来训练所述BERT神经网络的变换器。
5.根据权利要求4所述的方法,其中,通过监督所述BERT神经网络的注意力值来训练所述BERT神经网络的变换器包括:
在BERT神经网络的最后一个自注意力层监督所述依据文本片段是否作为判断语料文本的依据。
6.根据权利要求5所述的方法,其中,在BERT神经网络的最后一个自注意力层监督所述依据文本片段是否作为判断语料文本的依据包括:
在所述最后一个自注意力层的Query向量包含依据文本片段的信息;
通过所述Query向量判断输入语料中的目标文本片段是否是依据文本片段;以及
如果是依据文本片段,则将该目标文本片段的注意力值设为1,或者如果不是依据文本片段,则将该目标文本片段的注意力值设为0。
7.一种训练用于情感分析的基于注意力的神经网络的装置,包括:
获取模块,获取经情感标注的语料文本,其中,所述语料文本的情感极性被标注,以及所述语料文本中作为判断情感极性的依据的依据文本片段被标注;
输入模块,向基于注意力的神经网络输入语料文本;
训练模块,通过监督所述依据文本片段是否作为判断语料文本的依据而训练所述神经网络。
8.一种电子设备,包括处理器和存储器,存储器存储可执行指令,当运行电子设备时,可执行指令控制处理器执行根据权利要求1-6中任何一项所述的方法以训练用于情感分析的基于注意力的神经网络。
9.一种情感分析方法,包括:
向使用根据权利要求1所述的方法所训练的神经网络输入文本;以及
从所述神经网络获取所输入的文本的情感信息。
10.一种电子设备,包括处理器和存储器,存储器存储可执行指令,当运行电子设备时,可执行指令控制处理器执行根据权利要求9所述的方法以获取所输入的文本的情感信息。
CN202010006329.4A 2020-01-03 2020-01-03 训练神经网络的方法、装置及电子设备 Active CN111222344B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010006329.4A CN111222344B (zh) 2020-01-03 2020-01-03 训练神经网络的方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010006329.4A CN111222344B (zh) 2020-01-03 2020-01-03 训练神经网络的方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN111222344A true CN111222344A (zh) 2020-06-02
CN111222344B CN111222344B (zh) 2023-07-18

Family

ID=70831244

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010006329.4A Active CN111222344B (zh) 2020-01-03 2020-01-03 训练神经网络的方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN111222344B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434161A (zh) * 2020-11-24 2021-03-02 哈尔滨工程大学 一种采用双向长短期记忆网络的方面级情感分析方法

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106383815A (zh) * 2016-09-20 2017-02-08 清华大学 结合用户和产品信息的神经网络情感分析方法
US20170278510A1 (en) * 2016-03-22 2017-09-28 Sony Corporation Electronic device, method and training method for natural language processing
JP2018025874A (ja) * 2016-08-08 2018-02-15 富士ゼロックス株式会社 テキスト解析装置及びプログラム
CN108319666A (zh) * 2018-01-19 2018-07-24 国网浙江省电力有限公司电力科学研究院 一种基于多模态舆情分析的供电服务评估方法
CN108460009A (zh) * 2017-12-14 2018-08-28 中山大学 嵌入情感词典的注意力机制循环神经网络文本情感分析法
US20180293499A1 (en) * 2017-04-11 2018-10-11 Sap Se Unsupervised neural attention model for aspect extraction
CN108647205A (zh) * 2018-05-02 2018-10-12 深圳前海微众银行股份有限公司 细粒度情感分析模型构建方法、设备及可读存储介质
US20180349359A1 (en) * 2017-05-19 2018-12-06 salesforce.com,inc. Natural language processing using a neural network
CN109408633A (zh) * 2018-09-17 2019-03-01 中山大学 一种多层注意力机制的循环神经网络模型的构建方法
US20190197105A1 (en) * 2017-12-21 2019-06-27 International Business Machines Corporation Unsupervised neural based hybrid model for sentiment analysis of web/mobile application using public data sources
CN110134757A (zh) * 2019-04-19 2019-08-16 杭州电子科技大学 一种基于多头注意力机制的事件论元角色抽取方法
CN110147452A (zh) * 2019-05-17 2019-08-20 北京理工大学 一种基于层级bert神经网络的粗粒度情感分析方法
CN110245269A (zh) * 2019-05-06 2019-09-17 阿里巴巴集团控股有限公司 获取关系网络图中节点的动态嵌入向量的方法和装置
US20190340236A1 (en) * 2017-04-20 2019-11-07 Google Llc Processing sequential data using recurrent neural networks
CN110569508A (zh) * 2019-09-10 2019-12-13 重庆邮电大学 融合词性和自注意力机制的情感倾向性分类方法及系统

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170278510A1 (en) * 2016-03-22 2017-09-28 Sony Corporation Electronic device, method and training method for natural language processing
JP2018025874A (ja) * 2016-08-08 2018-02-15 富士ゼロックス株式会社 テキスト解析装置及びプログラム
CN106383815A (zh) * 2016-09-20 2017-02-08 清华大学 结合用户和产品信息的神经网络情感分析方法
US20180293499A1 (en) * 2017-04-11 2018-10-11 Sap Se Unsupervised neural attention model for aspect extraction
US20190340236A1 (en) * 2017-04-20 2019-11-07 Google Llc Processing sequential data using recurrent neural networks
US20180349359A1 (en) * 2017-05-19 2018-12-06 salesforce.com,inc. Natural language processing using a neural network
CN108460009A (zh) * 2017-12-14 2018-08-28 中山大学 嵌入情感词典的注意力机制循环神经网络文本情感分析法
US20190197105A1 (en) * 2017-12-21 2019-06-27 International Business Machines Corporation Unsupervised neural based hybrid model for sentiment analysis of web/mobile application using public data sources
CN108319666A (zh) * 2018-01-19 2018-07-24 国网浙江省电力有限公司电力科学研究院 一种基于多模态舆情分析的供电服务评估方法
CN108647205A (zh) * 2018-05-02 2018-10-12 深圳前海微众银行股份有限公司 细粒度情感分析模型构建方法、设备及可读存储介质
CN109408633A (zh) * 2018-09-17 2019-03-01 中山大学 一种多层注意力机制的循环神经网络模型的构建方法
CN110134757A (zh) * 2019-04-19 2019-08-16 杭州电子科技大学 一种基于多头注意力机制的事件论元角色抽取方法
CN110245269A (zh) * 2019-05-06 2019-09-17 阿里巴巴集团控股有限公司 获取关系网络图中节点的动态嵌入向量的方法和装置
CN110147452A (zh) * 2019-05-17 2019-08-20 北京理工大学 一种基于层级bert神经网络的粗粒度情感分析方法
CN110569508A (zh) * 2019-09-10 2019-12-13 重庆邮电大学 融合词性和自注意力机制的情感倾向性分类方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434161A (zh) * 2020-11-24 2021-03-02 哈尔滨工程大学 一种采用双向长短期记忆网络的方面级情感分析方法
CN112434161B (zh) * 2020-11-24 2023-01-03 哈尔滨工程大学 一种采用双向长短期记忆网络的方面级情感分析方法

Also Published As

Publication number Publication date
CN111222344B (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
US20210081611A1 (en) Methods and systems for language-agnostic machine learning in natural language processing using feature extraction
CN109543030B (zh) 客服机器人会话文本分类方法及装置、设备、存储介质
US11769492B2 (en) Voice conversation analysis method and apparatus using artificial intelligence
US20180373407A1 (en) Establishing User Specified Interaction Modes in a Question Answering Dialogue
CN112732911A (zh) 基于语义识别的话术推荐方法、装置、设备及存储介质
JP7394809B2 (ja) ビデオを処理するための方法、装置、電子機器、媒体及びコンピュータプログラム
US20210165970A1 (en) Method and terminal for generating a text based on self-encoding neural network, and medium
CN111582360B (zh) 用于标注数据的方法、装置、设备和介质
CN111159409B (zh) 基于人工智能的文本分类方法、装置、设备、介质
KR20210090576A (ko) 품질을 관리하는 방법, 장치, 기기, 저장매체 및 프로그램
CN111428010A (zh) 人机智能问答的方法和装置
CN111831826B (zh) 跨领域的文本分类模型的训练方法、分类方法以及装置
JP7488871B2 (ja) 対話推薦方法、装置、電子機器、記憶媒体ならびにコンピュータプログラム
CN110598869B (zh) 基于序列模型的分类方法、装置、电子设备
CN113505206B (zh) 基于自然语言推理的信息处理方法、装置和电子设备
CN117079299B (zh) 数据处理方法、装置、电子设备及存储介质
WO2023005968A1 (zh) 文本类别识别方法、装置、电子设备和存储介质
CN112669876A (zh) 情绪识别方法、装置、计算机设备及存储介质
CN110008926B (zh) 用于识别年龄的方法和装置
CN110738056B (zh) 用于生成信息的方法和装置
US20200202068A1 (en) Computing apparatus and information input method of the computing apparatus
CN111222344B (zh) 训练神经网络的方法、装置及电子设备
CN113590815A (zh) 一种层级性多元标签文本分类的方法和系统
CN112633004A (zh) 文本标点符号删除方法、装置、电子设备和存储介质
CN114676227B (zh) 样本生成方法、模型的训练方法以及检索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant