CN115617947A - 基于预训练模型与提示学习的可解释电力设备查询方法 - Google Patents

基于预训练模型与提示学习的可解释电力设备查询方法 Download PDF

Info

Publication number
CN115617947A
CN115617947A CN202211265262.1A CN202211265262A CN115617947A CN 115617947 A CN115617947 A CN 115617947A CN 202211265262 A CN202211265262 A CN 202211265262A CN 115617947 A CN115617947 A CN 115617947A
Authority
CN
China
Prior art keywords
entity
equipment
query
model
prompt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211265262.1A
Other languages
English (en)
Other versions
CN115617947B (zh
Inventor
钟艳如
李清扬
唐哲敏
李芳�
李一媛
罗笑南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202211265262.1A priority Critical patent/CN115617947B/zh
Publication of CN115617947A publication Critical patent/CN115617947A/zh
Application granted granted Critical
Publication of CN115617947B publication Critical patent/CN115617947B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于预训练模型与提示学习的可解释电力设备查询方法,具体步骤如下:查询文本预处理;通过预处理后的查询文本数据训练实体抽取模型;通过预处理后的查询文本数据和实体抽取模型训练实体预测模型;电力设备查询,将预处理后的查询文本依次输入到实体抽取模型和实体预测模型中,得到电力知识图谱。采用上述一种基于预训练模型与提示学习的可解释电力设备查询方法,采用实体预训练模型结合提示学习的方法,对查询文本进行抽取,并匹配与之相关的电力设备,利用提示学习的优势将相关设备实体特征嵌入引入到查询中,提高查询准确率,同时通过相关设备实体特征对查询匹配做解释,帮助查询人员更全面的了解电力设备。

Description

基于预训练模型与提示学习的可解释电力设备查询方法
技术领域
本发明涉及电力设备中的自然语言处理以及知识图谱技术领域,尤其是涉及一种基于预训练模型与提示学习的可解释电力设备查询方法。
背景技术
随着技术的不断进步,越来越多的电力设备信息能够被利用。在大量的电力设备信息中,不仅可以为提供单个的设备信息,也能提供设备间各种特征以及关系,这些特征以及关系在生产生活中是十分有利用价值的。而传统的设备查询方法,通过关键字匹配,仅能返回相关设备,使其难以满足当前的需要。随着知识图谱的相关技术发展,越来越多的图谱信息可以被挖掘。并伴随着自然语言处理技术的进步,图谱中的实体可通过文本描述进行语义匹配。近年来自然语言处理领域技术迅速发展,出现了大量的预训练语言模型,可作为下游任务的基础模型,可快速训练并提高性能。而越来越大的语言模型因其参数庞大,难以满足一般的使用。不过自从超大型预训练语言模型提出以来,自然语言处理领域出现了提示学习这样的新范式,可以冻结预训练模型参数,仅通过训练少量提示参数得到训练全部模型参数的能力。
发明内容
为克服上述现有技术的不足,本发明提供了一种基于预训练模型与提示学习的可解释电力设备查询方法。
一种基于预训练模型与提示学习的可解释电力设备查询方法,具体步骤如下:
步骤S1:查询文本预处理;
步骤S2:通过预处理后的查询文本数据训练实体抽取模型,通过预处理后的查询文本数据和实体抽取模型同步训练实体预测模型;
步骤S3:电力设备查询,将预处理后的查询文本依次输入到实体抽取模型和实体预测模型中,得到电力知识图谱。
进一步的,步骤S1具体如下:
步骤S11:将查询文本通过特殊字符截断;
步骤S12:将查询文本中字符转变为对应编码,得到文本编码向量;
步骤S13:生成查询文本对应的注意力掩码向量;
步骤S14:生成对应查询文本字符的实体标签向量,每个字符位置写入所描述设备实体特征的实体编号;
进一步的,实体抽取模型训练具体步骤如下:
步骤S21a:初始化实体抽取模型参数,输入设备实体特征嵌入矩阵和实体抽取的prefix prompt的参数;
步骤S22a:将文本编码向量和注意力掩码向量输入到实体抽取模型中,并在实体抽取模型中每层加入实体抽取的prefix prompt,得到每个字符对应输出的隐向量;
步骤S23 a:通过隐向量与设备实体特征的嵌入矩阵相乘,得到对应字符与设备实体特征的相似性分数;
步骤S24 a:通过相似性分数和实体标签向量得到损失值,并实体抽取模型向后传播更新设备实体特征嵌入矩阵和实体抽取的prefix prompt的参数;
步骤S25a:通过验证集验证设置阈值,并通过测试集测试模型性能;
步骤S26 a:重复步骤S22a-步骤S25a,直至实体抽取模型具有最高性能。
进一步的,实体预测模型训练具体步骤如下:
步骤S21b:初始化实体预测模型的prefix prompt;
步骤S22b:通过实体抽取模型抽取查询文本中的设备实体特征嵌入矩阵,再将设备实体特征嵌入矩阵通过两层MLP转为prefix prompt;
步骤S23b:转化的prefix prompt加上实体预测模型的prefix prompt输入到实体预测模型的每层中,并输入查询文本编码向量及对应的注意力掩码向量得到首字符的隐向量;
步骤S24b:隐向量与设备实体特征嵌入矩阵相乘,得到设备实体的相似性分数;
步骤S25b:通过设备实体的相似性分数和对应实体编号得到损失值,并实体预测模型向后传播更新设备实体特征嵌入矩阵和实体预测prefix prompt的参数;
步骤S26b:同时重复步骤S22a-步骤S25a和步骤S22b-步骤S25b,直到实体预测模块,具有最高性能。
进一步的,步骤S3具体如下:
步骤S31:将查询文本进行编码,生成查询文本编码向量以及对应的注意力掩码向量;
步骤S32:将查询文本编码向量和对应的注意力掩码向量输入实体抽取模型,得到抽取的设备实体特征矩阵;
步骤S33:将查询文本编码向量、对应的注意力掩码向量以及抽取到的设备实体特征矩阵输入实体预测模型,得到预测的设备实体;
步骤S34:抽取到的设备实体特征矩阵与预测的设备实体,在电力设备知识图谱上的最短关系路径作为解释,以预测的设备实体相似性分数为排名,返回预测的设备实体以及解释。
因此,本发明采用上述一种基于预训练模型与提示学习的可解释电力设备查询方法,对查询文本进行抽取,并匹配与之相关的电力设备,将自然语言处理技术与知识图谱技术相结合,实现了电力设备的准确查找,并利用知识图谱的可解释性返回查询解释,在实际电力设备查询任务中,起到了实质性的作用,可以帮助查询人员更全面的了解电力设备。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为预处理后的文本;
图2为实体抽取模型图;
图3为实体预测模型图;
图4为利用电力知识图谱提供查询解释;
图5为电力设备查询流程图。
具体实施方式
实施例
在本发明的描述中,需要说明的是,术语“上”、“下”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
下面结合附图,对本发明的实施方式作详细说明。
一种基于预训练模型与提示学习的可解释电力设备查询方法,具体步骤如下:
步骤S1:查询文本预处理。
步骤S11:将查询文本通过特殊字符截断,所有查询文本前加入特殊字符[CLS],所有查询文本后加入特殊字符[SEP],将所有查询文本截断为512长度,长度不足的补入特殊字符[PAD],如图1所示,后面图中将会省去[PAD]字符及查询文本对应的注意力掩码向量,
步骤S12:利用BERT的tokenizer,将查询文本中字符转变为对应编码。
步骤S13:生成查询文本对应的注意力掩码向量,补入特殊字符[PAD]的位置为0,其他位置为1。
步骤S14:生成对应查询文本字符的实体标签向量,每个字符位置写入所描述设备实体特征的实体编号,每个字符位置写入字符所描述的设备实体及特征的编号(从1开始编号),若不对应则为0。
步骤S15:将实体编号、对应查询文本的实体标签向量、对应查询文本的注意力掩码向量以及对应查询文本的文本编码向量返回。
步骤S2:通过预处理后的查询文本数据训练实体抽取模型,通过预处理后的查询文本数据和实体抽取模型训练实体预测模型。
实体抽取模型训练步骤如下:
步骤S21a:初始化实体抽取模型参数,输入设备实体特征嵌入矩阵和实体抽取的prefix prompt的参数。
步骤S22a:将文本编码向量和注意力掩码向量输入到实体抽取模型中,并在实体抽取模型中每层加入实体抽取的prefix prompt,得到每个字符对应输出的隐向量。如图2所示,将查询文本编码向量及对应的注意力掩码向量输入BERT,并在BRET中每层加入实体抽取的prefix prompt,得到每个文本编码对应输出的隐向量。
步骤S23 a:通过隐向量与设备实体特征的嵌入矩阵相乘,得到对应字符与设备实体特征的相似性分数。
步骤S24 a:通过相似性分数和实体标签向量得到损失值,相似性分数经过Softmax层与对应查询文本字符的实体标签向量共同输入CrossEntropy层得到损失值,并实体抽取模型向后传播更新设备实体特征嵌入矩阵和实体抽取的prefix prompt的参数。
步骤S25a:通过验证集验证设置阈值,并通过测试集测试模型性能。
步骤S26a:重复步骤S22 a-步骤S25a,直至实体抽取模型具有最高性能。
实体预测模型训练步骤如下:
步骤S21b:初始化实体预测模型的prefix prompt。
步骤S22b:通过实体抽取模型抽取查询文本中的设备实体特征嵌入矩阵,如图3所示,再将设备实体特征嵌入矩阵通过两层MLP转为prefix prompt。
步骤S23b:转化的prefix prompt加上实体预测模型的prefix prompt输入到实体预测模型的每层中,并输入查询文本编码向量及对应的注意力掩码向量得到[CLS]对应输出的隐向量。
步骤S24b:隐向量与设备实体特征嵌入矩阵相乘,得到设备实体的相似性分数。(与实体抽取模型训练相同)
步骤S25b:通过设备实体的相似性分数和对应实体编号得到损失值,并实体预测模型向后传播更新设备实体特征嵌入矩阵和实体预测prefix prompt的参数。
步骤S36:同时重复S22 a-步骤S25a和步骤S22b-步骤S25b,直到实体预测模块,具有最高性能。
步骤S3:电力设备查询,将预处理后的查询文本依次输入到实体抽取模型和实体预测模型中,得到电力知识图谱。
步骤S31:将查询文本进行编码,生成查询文本编码向量以及对应的注意力掩码向量。
步骤S32:将查询文本编码向量和对应的注意力掩码向量输入实体抽取模型,得到抽取的设备实体特征矩阵。
步骤S33:将查询文本编码向量、对应的注意力掩码向量以及抽取到的设备实体特征矩阵输入实体预测模型,得到预测的设备实体。
步骤S34:抽取到的设备实体特征矩阵与预测的设备实体,在电力设备知识图谱上的最短关系路径作为解释,以预测的设备实体相似性分数为排名,返回预测的设备实体以及解释。
因此,本发明采用上述一种基于预训练模型与提示学习的可解释电力设备查询方法,对查询文本进行抽取,并匹配与之相关的电力设备,将自然语言处理技术与知识图谱技术相结合,实现了电力设备的准确查找,并利用知识图谱的可解释性返回查询解释,在实际电力设备查询任务中,起到了实质性的作用,可以帮助查询人员更全面的了解电力设备。
最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。

Claims (5)

1.一种基于预训练模型与提示学习的可解释电力设备查询方法,其特征在于,具体步骤如下:
步骤S1:查询文本预处理;
步骤S2:通过预处理后的查询文本数据训练实体抽取模型,通过预处理后的查询文本数据和实体抽取模型同步训练实体预测模型;
步骤S3:电力设备查询,将预处理后的查询文本依次输入到实体抽取模型和实体预测模型中,得到电力知识图谱。
2.根据权利要求1所述的一种基于预训练模型与提示学习的可解释电力设备查询方法,其特征在于,步骤S1具体如下:
步骤S11:将查询文本通过特殊字符截断;
步骤S12:将查询文本中字符转变为对应编码,得到文本编码向量;
步骤S13:生成查询文本对应的注意力掩码向量;
步骤S14:生成对应查询文本字符的实体标签向量,每个字符位置写入所描述设备实体特征的实体编号;
3.根据权利要求2所述的一种基于预训练模型与提示学习的可解释电力设备查询方法,其特征在于,实体抽取模型训练具体步骤如下:
步骤S21a:初始化实体抽取模型参数,输入设备实体特征嵌入矩阵和实体抽取的prefix prompt的参数;
步骤S22a:将文本编码向量和注意力掩码向量输入到实体抽取模型中,并在实体抽取模型中每层加入实体抽取的prefix prompt,得到每个字符对应输出的隐向量;
步骤S23 a:通过隐向量与设备实体特征的嵌入矩阵相乘,得到对应字符与设备实体特征的相似性分数;
步骤S24 a:通过相似性分数和实体标签向量得到损失值,并实体抽取模型向后传播更新设备实体特征嵌入矩阵和实体抽取的prefix prompt的参数;
步骤S25a:通过验证集验证设置阈值,并通过测试集测试模型性能;
步骤S26 a:重复步骤S22a-步骤S25a,直至实体抽取模型具有最高性能。
4.根据权利要求3所述的一种基于预训练模型与提示学习的可解释电力设备查询方法,其特征在于,实体预测模型训练具体步骤如下:
步骤S21b:初始化实体预测模型的prefix prompt;
步骤S22b:通过实体抽取模型抽取查询文本中的设备实体特征嵌入矩阵,再将设备实体特征嵌入矩阵通过两层MLP转为prefix prompt;
步骤S23b:转化的prefix prompt加上实体预测模型的prefix prompt输入到实体预测模型的每层中,并输入查询文本编码向量及对应的注意力掩码向量得到首字符的隐向量;
步骤S24b:隐向量与设备实体特征嵌入矩阵相乘,得到设备实体的相似性分数;
步骤S25b:通过设备实体的相似性分数和对应实体编号得到损失值,并实体预测模型向后传播更新设备实体特征嵌入矩阵和实体预测prefix prompt的参数;
步骤S26b:同时重复步骤S22a-步骤S25a和步骤S22b-步骤S25b,直到实体预测模块,具有最高性能。
5.根据权利要求4所述的一种基于预训练模型与提示学习的可解释电力设备查询方法,其特征在于,步骤S3具体如下:
步骤S31:将查询文本进行编码,生成查询文本编码向量以及对应的注意力掩码向量;
步骤S32:将查询文本编码向量和对应的注意力掩码向量输入实体抽取模型,得到抽取的设备实体特征矩阵;
步骤S33:将查询文本编码向量、对应的注意力掩码向量以及抽取到的设备实体特征矩阵输入实体预测模型,得到预测的设备实体;
步骤S34:抽取到的设备实体特征矩阵与预测的设备实体,在电力设备知识图谱上的最短关系路径作为解释,以预测的设备实体相似性分数为排名,返回预测的设备实体以及解释。
CN202211265262.1A 2022-10-17 2022-10-17 基于预训练模型与提示学习的可解释电力设备查询方法 Active CN115617947B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211265262.1A CN115617947B (zh) 2022-10-17 2022-10-17 基于预训练模型与提示学习的可解释电力设备查询方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211265262.1A CN115617947B (zh) 2022-10-17 2022-10-17 基于预训练模型与提示学习的可解释电力设备查询方法

Publications (2)

Publication Number Publication Date
CN115617947A true CN115617947A (zh) 2023-01-17
CN115617947B CN115617947B (zh) 2023-08-18

Family

ID=84863408

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211265262.1A Active CN115617947B (zh) 2022-10-17 2022-10-17 基于预训练模型与提示学习的可解释电力设备查询方法

Country Status (1)

Country Link
CN (1) CN115617947B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113434699A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 Bert模型的预训练方法、计算机装置和存储介质
US20210342684A1 (en) * 2020-04-29 2021-11-04 International Business Machines Corporation Method and system for table retrieval using multimodal deep co-learning with helper query-dependent and query-independent relevance labels
CN113962219A (zh) * 2021-10-13 2022-01-21 国网浙江省电力有限公司电力科学研究院 面向电力变压器知识检索和问答的语义匹配方法及系统
CN114860916A (zh) * 2022-06-09 2022-08-05 国网冀北电力有限公司计量中心 知识检索方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210342684A1 (en) * 2020-04-29 2021-11-04 International Business Machines Corporation Method and system for table retrieval using multimodal deep co-learning with helper query-dependent and query-independent relevance labels
CN113434699A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 Bert模型的预训练方法、计算机装置和存储介质
CN113962219A (zh) * 2021-10-13 2022-01-21 国网浙江省电力有限公司电力科学研究院 面向电力变压器知识检索和问答的语义匹配方法及系统
CN114860916A (zh) * 2022-06-09 2022-08-05 国网冀北电力有限公司计量中心 知识检索方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHAORONG HE ET.AL: "Information Extraction Method based on Dilated Convolution and Character-Enhanced Word Embedding", 《2020 INTERNATIONAL CONFERENCE ON CYBER-ENABLED DISTRIBUTED COMPUTING AND KNOWLEDGE DISCOVERY (CYBERC)》, pages 138 - 143 *

Also Published As

Publication number Publication date
CN115617947B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
CN110929030B (zh) 一种文本摘要和情感分类联合训练方法
CN108614875B (zh) 基于全局平均池化卷积神经网络的中文情感倾向性分类方法
CN107680580B (zh) 文本转换模型训练方法和装置、文本转换方法和装置
CN111581229B (zh) Sql语句的生成方法、装置、计算机设备及存储介质
CN110781663B (zh) 文本分析模型的训练方法及装置、文本分析方法及装置
CN112100332A (zh) 词嵌入表示学习方法及装置、文本召回方法及装置
CN110162789A (zh) 一种基于汉语拼音的词表征方法及装置
CN112905736B (zh) 一种基于量子理论的无监督文本情感分析方法
CN117149984B (zh) 一种基于大模型思维链的定制化培训方法及装置
CN113553414A (zh) 智能对话方法、装置、电子设备和存储介质
CN110705253A (zh) 基于迁移学习的缅甸语依存句法分析方法及装置
Alfaro-Contreras et al. Approaching end-to-end optical music recognition for homophonic scores
CN116258137A (zh) 文本纠错方法、装置、设备和存储介质
KR20230009564A (ko) 앙상블 스코어를 이용한 학습 데이터 교정 방법 및 그 장치
CN114492470A (zh) 商品标题文本翻译方法及其装置、设备、介质、产品
CN113094502A (zh) 一种多粒度外卖用户评论情感分析方法
CN111666374A (zh) 一种在深度语言模型中融入额外知识信息的方法
US20220139386A1 (en) System and method for chinese punctuation restoration using sub-character information
CN115617947A (zh) 基于预训练模型与提示学习的可解释电力设备查询方法
Caubrière et al. Error analysis applied to end-to-end spoken language understanding
CN111966782A (zh) 多轮对话的检索方法、装置、存储介质及电子设备
CN115730599A (zh) 基于StructBERT的中文专利关键信息识别方法、计算机设备、存储介质和程序产品
CN112966501B (zh) 一种新词发现方法、系统、终端及介质
KR101482148B1 (ko) 개인화된 발음열을 이용한 그룹 매핑 데이터 생성 서버, 음성 인식 서버 및 방법
CN113204679B (zh) 一种代码查询模型的生成方法和计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant