CN117391095A - 一种自然语言解析方法、装置、电子设备及存储介质 - Google Patents
一种自然语言解析方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN117391095A CN117391095A CN202311429981.7A CN202311429981A CN117391095A CN 117391095 A CN117391095 A CN 117391095A CN 202311429981 A CN202311429981 A CN 202311429981A CN 117391095 A CN117391095 A CN 117391095A
- Authority
- CN
- China
- Prior art keywords
- user
- natural language
- model
- analysis
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000012545 processing Methods 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 21
- 238000010606 normalization Methods 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract description 10
- 238000003058 natural language processing Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例公开一种自然语言解析方法、装置、电子设备及存储介质,其中,所述方法包括:获取用户输入的自然语言及其提示模板;从预先建立的多种大语言模型中选择本次解析任务对应的目标大语言模型;将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果。本发明实施例提供的技术方案可适用于智能助手进行自然语言处理的的场景,能够解决现有技术中用户意图理解和要素提取准确性和灵活性差的问题。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种自然语言解析方法、装置、电子设备及存储介质。
背景技术
随着人工智能和机器学习技术的迅猛发展,各种智能助手(如聊天机器人、语音助手)已经逐渐进入人们的生活和工作中。用户可以通过自然语言的方式向智能助手传达自己的需求,而智能助手则利用自然语言处理(Natural Language Processing,NLP)和机器学习技术来为用户提供信息查询、任务执行、问题解答等服务,以实现用户的目标。
在NLP中,用户意图理解是一个重要的子领域,其涉及从用户输入中识别和解析用户的目的或需求。传统的方法主要依赖于词汇和句法分析,而缺乏对复杂意图和上下文的深入理解。而要素提取与用户意图理解密切相关,其涉及从用户输入中识别特定的关键信息,如日期、地点、对象等,以更准确地满足用户需求,通常通过正则表达式、模板匹配或其他启发式方法来实现,但这些方法往往是硬编码,不能很好地适应用户输入的变化。
如何提高用户意图理解和要素提取的准确性和灵活性,以实现更智能和自然的人机交互,是一项迫切需要解决的任务。
发明内容
有鉴于此,本发明实施例提供一种自然语言解析方法、装置、电子设备及存储介质,以解决现有技术中用户意图理解和要素提取准确性和灵活性差的问题。
第一方面,本发明实施例提供一种自然语言解析方法,该方法包括:
获取用户输入的自然语言及其提示模板;
从预先建立的多种大语言模型中选择本次解析任务对应的目标大语言模型;
将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果。
进一步的,所述方法还包括:
在所述解析失败后,使用其它大语言模型和/或人工辅助重新解析生成对用户输入的自然语言的理解结果;
将用户输入的自然语言和重新解析得到的理解结果作为新的训练数据,训练所述目标大语言模型。
进一步的,获取提示模板,包括:根据本次解析任务的类型,获取对应的提示模板。
进一步的,在将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后,所述方法还包括:
在标准数据库中查询与生成的理解结果相匹配的标准信息;
更新所述理解结果为匹配到的标准信息。
进一步的,在将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后,所述方法还包括:将所述理解结果转化为下游任务需要的结构化数据。
第二方面,本发明实施例提供一种自然语言解析装置,该装置包括:
模型输入获取单元,用于获取用户输入的自然语言及其提示模板;
模型选择单元,用于从预先建立的多种大语言模型中选择本次解析任务对应的目标大语言模型;
模型解析单元,用于将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果。
进一步的,所述装置还包括模型调整单元,用于:
在所述模型解析单元解析失败后,使用其它大语言模型和/或人工辅助重新解析生成对用户输入的自然语言的理解结果;
将用户输入的自然语言和重新解析得到的理解结果作为新的训练数据,训练所述目标大语言模型。
进一步的,模型输入获取单元用于获取提示模板,包括:根据本次解析任务的类型,获取对应的提示模板。
进一步的,所述装置还包括标准化处理单元,用于在模型解析单元将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后:
在标准数据库中查询与生成的理解结果相匹配的标准信息;
更新所述理解结果为匹配到的标准信息。
进一步的,所述装置还包括结构化转换单元,用于在模型解析单元将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后:将所述理解结果转化为下游任务需要的结构化数据。
第三方面,本发明实施例提供一种电子设备,所述电子设备包括:壳体、处理器、存储器、电路板和电源电路,其中,电路板安置在壳体围成的空间内部,处理器和存储器设置在电路板上;电源电路,用于为上述电子设备的各个电路或器件供电;存储器用于存储可执行程序代码;处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,用于执行前述第一方面所述的自然语言解析方法。
第四方面,本发明的实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个中央处理器执行,以实现前述第一方面所述的自然语言解析方法。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例一提供的一种自然语言解析方法的流程图;
图2为本发明实施例一提供的具体示例中自然语言解析方法的流程图;
图3为本发明实施例二提供的一种自然语言解析装置的结构示意图;
图4为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例一
本实施例提供一种自然语言解析方法,该方法可由对应的自然语言解析装置执行,适用于智能助手进行自然语言处理的场景。参见图1,该方法包括以下步骤101-103。
步骤101、获取用户输入的自然语言及其提示模板。
本步骤中,可通过如下任意一种方式得到用户输入的自然语言:
文本输入:接收用户基于文本框、对话框等界面输入的自然语言文本;
语音输入:通过语音输入设备(如麦克风)采集用户发出的自然语言的语音,通过语音识别技术将采集到的语音转化为自然语言文本。
考虑到用户的表达能力不同,有时用户输入的请求可能无法准确、全面、规范地表达用户的真实意图,大语言模型无法输出期望的理解结果,本实施例中在用户输入自然语言后,还需进一步获取相应的提示模板,其连同用户输入的自然语言一起输入至大语言模型,来指导模型完成解析任务。其中,设计模板可以是一段文本或语句,其内容例如可以是对大语言模型输出的类型、主题、格式、样式或者其它约束条件的需求表达,具体可由本领域技术人员根据实际需要编写或从已有的文本资源中提取。
作为一种优选的实施方式,获取提示模板,包括:根据本次解析任务的类型,获取对应的提示模板。其中,解析任务可包括如下多种类型:意图理解、要素提取、关键信息提取、实体识别,每一种解析任务唯一对应一种提示模板。具体的,可由本领域技术人员分别针对每个类型的解析任务,预先配置好该类型的提示模板,又或者,通过如下方式智能生成提示模板。
针对意图理解的任务,可以根据已有的训练数据或标注数据分析,找出与意图相关的关键词、短语或模式。这些关键词、短语或模式可以作为提示模板的基础,在大语言模型生成输出时,引导模型理解用户的意图。
针对要素提取的任务,首先可以定义要素的类型,如地点、时间、人物等。然后,可以根据已有的训练数据或样本数据,提取出要素的格式、约束或描述方式。这些格式、约束或描述方式可以作为提示模板,指导模型在生成输出时,准确提取出要素信息。
对于关键信息提取的任务,可以通过分析已有的训练数据或样本数据,识别出常见的或重要的关键信息。这些关键信息可以是特定领域的术语、名词、短语等。将这些关键信息制作成提示模板,可以帮助模型准确识别和提取关键信息。
对于实体识别的任务,可以考虑使用预训练的实体识别大模型。实体识别大模型可以在大规模标注好的实体识别数据上进行训练,以学习实体的特征和上下文信息。根据实体识别模型的输出结果,可以得到实体的类型、位置和属性等信息。
步骤102、从预先建立的多种大语言模型中选择本次解析任务对应的目标大语言模型。
大语言模型(large language model,LLM),是一种基于机器学习和自然语言处理技术的模型,它通过对大量的文本数据进行训练,来学习服务人类语言理解和生成的能力。LLM的核心思想是通过大规模的无监督训练来学习自然语言的模式和语言结构,这在一定程度上能够模拟人类的语言认知和生成过程。与传统的自然语言处理模型相比,LLM能够更好地理解和生成自然文本,同时还能够表现出一定的逻辑思维和推理能力。
本步骤中,可线下预先建立各种适用于不同解析任务类型的大语言模型,且每种解析任务类型对应的大语言模型还可进一步分为多个版本,具体可根据领域适应性、模型性能和效果、计算资源和要求等因素划分同一解析任务类型下的不同版本。后续,线上每接收到对用户输入的自然语言的一次解析任务后,可选择与此次解析任务类型相匹配的、适应任务所涉及领域的、性能满足设定要求的大语言模型作为目标大语言模型。相较于固定使用一个大语言模型,本步骤具备以下优点:
任务定制化:每个解析任务可能有不同的要求和特点,选择对应的目标大语言模型可以更好地满足任务的需求;不同的模型可能在不同的任务类型上具有更好的性能和效果,能够更准确地理解用户意图、提取要素或识别实体;
数据适应性:多种大语言模型可以在不同的训练数据上进行训练,通过选择与解析任务相关的大语言模型,可以提升模型在关键领域数据集上的适应性;这样有助于提高模型在特定领域任务上的准确度和效果;
预训练模型利用:从预先建立的多种大语言模型中选择目标模型,可以充分利用不同模型在大规模数据上的预训练成果;这些模型通常具备丰富的语言知识和语义理解能力,可以为解析任务提供更好的基础;
灵活性和切换性:对于不同的解析任务,可能需要在不同的大语言模型间进行切换;灵活选择目标模型可以便于根据实际需求进行切换,以获得最佳的解析能力和结果;
模型性能和效果优化:通过尝试和比较多个模型,可以选择表现最好的目标大语言模型,以提高解析任务的准确率、召回率和整体效果;这种优化能够根据任务需求进行调整,从而更好地满足实际应用的需求。
典型的,对于预先建立的与本次解析任务类型匹配的大语言模型,若其存在对旧版本升级后的新版本,且该新版本尚未达到线上解析效果测试条件(例如解析的用户输入条数低于某阈值),则可以按照预设的分流策略,选择本次解析任务对应的目标大语言模型。其中,所述分流策略指的是:一些解析任务选定到升级后的新版本模型,一些解析任务选定到升级前的旧版本模型。亦或者,同时选定新旧版本两个大语言模型,作为本次解析任务对应的目标大语言模型,而后将两模型解析生成的理解结果一起进行标准化处理,选取与其中任一理解结果相匹配的标准信息,作为标准化处理后得到的理解结果。通过升级大语言模型来实现某些能力后,固定选用升级版大语言模型进行任务解析,系统会强依赖于升级版大语言模型的能力,而此时旧版本大语言模型的其它能力方面的更新迭代往往不容易在线上运行,由此会导致大语言模型的更新节奏缓慢,上述方式可以解决此问题。
步骤103、将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果。
本步骤中,生成的理解结果与本次解析任务类型以及输入的提示模板之间关联。
对于解析任务类型:不同的解析任务类型要求目标大语言模型从用户输入的自然语言中提取不同的信息,因此生成的理解结果会根据任务类型的不同而不同。例如,对于文本分类任务,理解结果通常是预定义的类别或标签;对于实体识别任务,理解结果是识别出的具体实体或实体属性;对于机器翻译任务,理解结果是将输入文本翻译成目标语言的结果;对于问答任务,理解结果是对用户问题的回答。
对于提示模板:输入的提示模板可以帮助目标大语言模型更好地理解用户的输入。提示模板可以提供额外的上下文信息、约束条件或指示性问题,以引导模型的解析过程。根据不同的提示模板,目标大语言模型可以更准确地理解用户的意图,并生成相应的理解结果。例如,给定一个提示模板"你是一个美食专家",目标大语言模型可以更容易地理解用户想要获取的信息,输出更加偏向美食维度的答案。
总之,本次解析任务类型决定了需要从用户输入的自然语言中提取的信息类型,而提示模板则为目标大语言模型提供了额外的上下文信息和指导,帮助模型更好地理解用户的意图并生成相应的理解结果。例如:
用户输入的自然语言内容是:查询明天从上海到北京的航班信息;
提示模板内容是:我希望你作为一个自然语言理解程序,当我输入一段文本时,分别提取这段文字中的意图和要素,如果输入文本中没有明确的意图和要素信息,请赋值为'未知',最终结果请以JSON格式进行结构化输出,以下是输入文本:;
目标大语言模型生成的理解结果是:\"意图\":\"航班查询\",\"要素\":{\"出发地\":\"上海\",\"目的地\":\"北京\",\"日期\":\"明天\"。
在以上方案的基础上,作为一种可选的实施方式,本实施例提供的自然语言解析方法还包括:
在所述目标大语言模型解析失败后,使用其它大语言模型和/或人工辅助重新解析生成对用户输入的自然语言的理解结果;
将用户输入的自然语言和重新解析得到的理解结果作为新的训练数据,训练所述目标大语言模型。
以上可选方式中,对于未成功生成对用户输入的自然语言的理解结果的情况,采取了负样本处理操作,该处理操作可分为如下两个部分:
机器处理部分,使用除目标大语言模型之外的多个其它大语言模型再次解析用户输入的自然语言及其提示模板,重新生成对用户输入的自然语言的理解结果,然后将各个其它大语言模型重新生成的理解结果进行相似度对比;如果相似度超过设定的一个阈值,则认为此次机器处理操作结果可信,后续可以将用户输入的自然语言和重新解析得到的任意一个理解结果作为新的训练数据,训练目标大语言模型;
人工处理部分,如果相似度未超过设定的所述阈值,则认为此次机器处理操作结果不可信,进一步由人工校对各个其它大语言模型重新生成的理解结果,后续可以将用户输入的自然语言和校对得到的最终理解结果作为新的训练数据,训练目标大语言模型。
当然,本领域技术人员应理解,仅使用除目标大语言模型之外的一个可信的其它大语言模型再次解析用户输入的自然语言及其提示模板,重新生成对用户输入的自然语言的理解结果,或者直接由人工重新生成对用户输入的自然语言的理解结果,亦是可行的。
本实施例在一些无明确意图的用户输入解析失败后,进一步对该用户输入作负样本处理,使用处理结果来微调目标大语言模型,由此可以很好地提升模型的精确度和可靠性,弥补遗漏。
此外,实际应用中,目标大语言模型的解析能力有时会比较泛化,导致其生成的理解结果不唯一、不稳定,给后续处理带来不便,为此,本实施例提供的自然语言解析方法中,在将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后,还包括:
在标准数据库中查询与生成的理解结果相匹配的标准信息;
更新对用户输入的自然语言的理解结果为匹配到的标准信息。
具体的,可将生成的对用户输入的自然语言的理解结果向量化,与标准数据库中向量化的标准信息进行相似度计算,相似度达到某个阈值时则认为两者匹配,从而将理解结果进行标准化处理。典型的,如果查询标准信息失败,则可采用上述负样本处理操作,使用处理结果来微调目标大语言模型。
更为优选的,在将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后,本实施例提供的自然语言解析方法还包括:将对用户输入的自然语言的理解结果转化为下游任务需要的结构化数据。大语言模型输出的理解结果数据可能会存在与下游任务的输入数据类型不匹配的情况,例如,下游期待的时间类型是结构化的时间,而此时就需要把理解结果“明天上午3点”这样的口语化表达方式转为结构化的时间信息,供下游使用。
以下通过一具体示例,详细介绍本发明实施例提供的自然语言解析方法。
参见图2,该方法包括:
步骤201、获取用户输入的自然语言。执行步骤202。
步骤202、获取提示模板。执行步骤203。
步骤203、选定模型,进行用户输入解析,该解析包括:用户意图理解和要素提取。
本步骤中,从预先建立的多种大语言模型中,选择本次解析任务对应的目标大语言模型,将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果。
如果解析成功,则执行步骤204。如果解析失败,则执行步骤207。
步骤204、将解析结果作标准化处理。
本步骤中,在标准数据库中查询与生成的理解结果相匹配的标准信息;更新对用户输入的自然语言的理解结果为匹配到的标准信息。
如果标准化处理成功,则执行步骤205。如果标准化处理失败,则执行步骤207。
步骤205、将标准化后的解析结果进行类型映射。
本步骤中,将步骤204更新后的用户输入的自然语言的理解结果转化为下游任务需要的结构化数据。执行步骤206。
步骤206、使用实体识别大模型,对获取到的用户输入的自然语言进行实体识别。本次自然语言处理流程结束。
步骤207、进行负样本处理操作,包括:
机器处理部分,使用除目标大语言模型之外的多个其它大语言模型再次解析用户输入的自然语言及其提示模板,重新生成对用户输入的自然语言的理解结果,然后将各个其它大语言模型重新生成的理解结果进行相似度对比;如果相似度超过设定的一个阈值,则认为此次机器处理操作结果可信;
人工处理部分,如果相似度未超过设定的所述阈值,则认为此次机器处理操作结果不可信,进一步由人工校对各个其它大语言模型重新生成的理解结果。
步骤208、更新训练数据集。执行步骤209。
将用户输入的自然语言,以及步骤207中机器处理器部分重新解析得到的任意一个理解结果,或者步骤207中人工处理部分校对得到的最终理解结果,作为新的训练数据。
步骤209、使用更新后的训练数据集,自动化微调大语言模型。
该步骤的目的是通过自动脚本,对于训练数据集有更新的情况会自动开启新的微调任务,并启动微调任务,并且把微调之后的大语言模型进行自动部署,可以大大提高整个系统自我优化的能力。
实施例二
本实施例提供了一种自然语言解析装置,由软件实现,用于执行本发明实施例所述的自然语言解析方法。参见图3,该装置具体包括以下单元:
模型输入获取单元301,用于获取用户输入的自然语言及其提示模板;
模型选择单元302,用于从预先建立的多种大语言模型中选择本次解析任务对应的目标大语言模型;
模型解析单元303,用于将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果。
进一步的,所述自然语言解析装置还包括模型调整单元304,用于:
在所述模型解析单元303解析失败后,使用其它大语言模型和/或人工辅助重新解析生成对用户输入的自然语言的理解结果;
将用户输入的自然语言和重新解析得到的理解结果作为新的训练数据,训练所述目标大语言模型。
示例性的,模型输入获取单元301用于获取提示模板,包括:根据本次解析任务的类型,获取对应的提示模板。
可选的,所述自然语言解析装置还包括标准化处理单元305,用于在模型解析单元303将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后:
在标准数据库中查询与生成的理解结果相匹配的标准信息;
更新所述理解结果为匹配到的标准信息。
可选的,所述自然语言解析装置还包括结构化转换单元306,用于在模型解析单元303将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后:将所述理解结果转化为下游任务需要的结构化数据。
本实施例提供的自然语言解析装置与前述方法实施例属于同一发明构思,未在本实施例中描述的技术细节可参见前述方法实施例中的相关描述,在此不再赘述。
图4为本发明电子设备一个实施例的结构示意图,可以实现本发明图1所示实施例的流程,如图4所示,上述电子设备可以包括:壳体41、处理器42、存储器43、电路板44和电源电路45,其中,电路板44安置在壳体41围成的空间内部,处理器42和存储器43设置在电路板44上;电源电路45,用于为上述电子设备的各个电路或器件供电;存储器43用于存储可执行程序代码;处理器42通过读取存储器43中存储的可执行程序代码来运行与可执行程序代码对应的程序,用于执行前述任一实施例所述的自然语言解析方法。
处理器42对上述步骤的具体执行过程以及处理器42通过运行可执行程序代码来进一步执行的步骤,可以参见本发明图1所示实施例的描述,在此不再赘述。
该电子设备可以是以多种形式存在的具有数据处理功能的电子设备,例如,提供计算服务的服务器,其构成和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
再者,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有一个或多个程序,所述一个或者多个程序可被一个或者多个中央处理器执行,以实现前述实施例所述的自然语言解析方法。
综上,本发明实施例提供的技术方案具有以下优点:
大语言模型动态选择:可以提供更加定制化、适应性更强以及性能和效果更好的解析能力,从而为特定解析任务带来更好的效果和用户体验,同时也可以充分利用各种模型的优势,以满足不同任务需求的灵活性和可调整性,此外还可以方便底层大语言模型能力与上层应用进行解耦,方便后期大语言模型的更新和维护;
负样本处理并重新自动化微调:对于任务解析失败的语料,自动进行机器或人工的二次处理,并且对于二次处理之后的数据会自动进行大语言模型微调和部署;
标准信息检索匹配和类型映射:对于解析结果与标准信息进行匹配,对于部分类型数据进行类型处理和映射,方便下游信息处理。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明实施例中术语“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
为了描述的方便,描述以上装置是以功能分为各种单元/模块分别描述。当然,在实施本发明时可以把各单元/模块的功能在同一个或多个软件和/或硬件中实现。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种自然语言解析方法,其特征在于,所述方法包括:
获取用户输入的自然语言及其提示模板;
从预先建立的多种大语言模型中选择本次解析任务对应的目标大语言模型;
将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述解析失败后,使用其它大语言模型和/或人工辅助重新解析生成对用户输入的自然语言的理解结果;
将用户输入的自然语言和重新解析得到的理解结果作为新的训练数据,训练所述目标大语言模型。
3.根据权利要求1所述的方法,其特征在于,获取提示模板,包括:
根据本次解析任务的类型,获取对应的提示模板。
4.根据权利要求1所述的方法,其特征在于,在将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后,所述方法还包括:
在标准数据库中查询与生成的理解结果相匹配的标准信息;
更新所述理解结果为匹配到的标准信息。
5.根据权利要求1所述的方法,其特征在于,在将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后,所述方法还包括:
将所述理解结果转化为下游任务需要的结构化数据。
6.一种自然语言解析装置,其特征在于,所述装置包括:
模型输入获取单元,用于获取用户输入的自然语言及其提示模板;
模型选择单元,用于从预先建立的多种大语言模型中选择本次解析任务对应的目标大语言模型;
模型解析单元,用于将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括模型调整单元,用于:
在所述模型解析单元解析失败后,使用其它大语言模型和/或人工辅助重新解析生成对用户输入的自然语言的理解结果;
将用户输入的自然语言和重新解析得到的理解结果作为新的训练数据,训练所述目标大语言模型。
8.根据权利要求6所述的装置,其特征在于,模型输入获取单元用于获取提示模板,包括:
根据本次解析任务的类型,获取对应的提示模板。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括标准化处理单元,用于在模型解析单元将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后:
在标准数据库中查询与生成的理解结果相匹配的标准信息;
更新所述理解结果为匹配到的标准信息。
10.根据权利要求6所述的装置,其特征在于,所述装置还包括结构化转换单元,用于在模型解析单元将用户输入的自然语言及其提示模板输入至所述目标大语言模型中进行解析,以生成对用户输入的自然语言的理解结果之后:
将所述理解结果转化为下游任务需要的结构化数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311429981.7A CN117391095A (zh) | 2023-10-31 | 2023-10-31 | 一种自然语言解析方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311429981.7A CN117391095A (zh) | 2023-10-31 | 2023-10-31 | 一种自然语言解析方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117391095A true CN117391095A (zh) | 2024-01-12 |
Family
ID=89471762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311429981.7A Pending CN117391095A (zh) | 2023-10-31 | 2023-10-31 | 一种自然语言解析方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117391095A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725908A (zh) * | 2024-02-07 | 2024-03-19 | 青岛海尔科技有限公司 | 一种自然语言处理中的时间解析方法、装置及设备 |
-
2023
- 2023-10-31 CN CN202311429981.7A patent/CN117391095A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725908A (zh) * | 2024-02-07 | 2024-03-19 | 青岛海尔科技有限公司 | 一种自然语言处理中的时间解析方法、装置及设备 |
CN117725908B (zh) * | 2024-02-07 | 2024-05-24 | 青岛海尔科技有限公司 | 一种自然语言处理中的时间解析方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108304372B (zh) | 实体提取方法和装置、计算机设备和存储介质 | |
CN107315737B (zh) | 一种语义逻辑处理方法及系统 | |
CN108287822B (zh) | 一种中文相似问题生成系统与方法 | |
US20170278514A1 (en) | Fine-grained natural language understanding | |
CN103309846B (zh) | 一种自然语言信息的处理方法及装置 | |
US20170199867A1 (en) | Dialogue control system and dialogue control method | |
CN110717018A (zh) | 一种基于知识图谱的工业设备故障维修问答系统 | |
CN110807333A (zh) | 一种语义理解模型的语义处理方法、装置及存储介质 | |
EP4364044A1 (en) | Automated troubleshooter | |
CN117391095A (zh) | 一种自然语言解析方法、装置、电子设备及存储介质 | |
CN116166688A (zh) | 基于自然语言交互的业务数据检索方法、系统及处理设备 | |
CN112668337A (zh) | 一种语音指令分类方法和装置 | |
CN114138963A (zh) | 基于句法分析的意图识别模型 | |
CN113157887A (zh) | 知识问答意图识别方法、装置、及计算机设备 | |
CN115345177A (zh) | 意图识别模型训练方法和对话方法及装置 | |
CN117828057A (zh) | 知识问答方法、装置、设备和存储介质 | |
CN109885835B (zh) | 一种获取用户语料中词语之间的关联关系的方法和系统 | |
Pappu et al. | Predicting tasks in goal-oriented spoken dialog systems using semantic knowledge bases | |
Nazarenko et al. | Evaluating term extraction | |
CN116483314A (zh) | 一种自动化智能活动图生成方法 | |
CN112052320B (zh) | 一种信息处理方法、装置及计算机可读存储介质 | |
CN111538810B (zh) | 数据生成方法、装置、电子设备及存储介质 | |
Ahkouk et al. | Human language question to sql query using deep learning | |
Henderson et al. | Data-driven methods for spoken language understanding | |
CN111460106A (zh) | 一种信息交互方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |