CN117112764A - 一种文本处理方法、装置、存储介质及设备 - Google Patents

一种文本处理方法、装置、存储介质及设备 Download PDF

Info

Publication number
CN117112764A
CN117112764A CN202311134936.9A CN202311134936A CN117112764A CN 117112764 A CN117112764 A CN 117112764A CN 202311134936 A CN202311134936 A CN 202311134936A CN 117112764 A CN117112764 A CN 117112764A
Authority
CN
China
Prior art keywords
text
word
preset
prompting
prompt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311134936.9A
Other languages
English (en)
Inventor
孙庆华
朱宇豪
王士进
胡国平
刘聪
魏思
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iFlytek Co Ltd
Original Assignee
iFlytek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by iFlytek Co Ltd filed Critical iFlytek Co Ltd
Priority to CN202311134936.9A priority Critical patent/CN117112764A/zh
Publication of CN117112764A publication Critical patent/CN117112764A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3322Query formulation using system suggestions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Machine Translation (AREA)

Abstract

本申请公开了一种文本处理方法、装置、存储介质及设备,该方法包括:首先获取目标用户输入的待处理的目标任务文本;然后利用预设提示词的固定前缀,对目标任务文本进行结合处理,得到结合文本;接着可以对结合文本进行自动解析,并利用解析结果对预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。可见,由于本申请是通过结构化和自适应混合式的提示词编写方式,有效地优化了编写的提示词,提高了提示词的编写效率和准确率,从而使得相关AI模型可以更准确地理解和执行目标用户指示的目标任务,进而提高目标用户的交互体验。

Description

一种文本处理方法、装置、存储介质及设备
技术领域
本申请涉及自然语言处理技术领域,尤其涉及一种文本处理方法、装置、存储介质及设备。
背景技术
随着人工智能(Artificial Intelligence,简称AI)、物联网等新一代信息技术的快速发展,人机交互的应用场景越来越广泛。各式各样的智能交互软件和设备出现在人们的生活工作中,如聊天生成预训练转换器(Chat Generative Pre-trained Transformer,简称ChatGPT)、智能音箱、智能电视等AI模型,可以为人们提供信息查询等众多应用场景的智能交互功能,以辅助用户完成各种行为意图。
目前,针对用户输入智能交互软件或设备(如智能音箱、智能电视等)的语音或文本信息,通常采用的方式主要是依靠基于统计和模式识别的AI模型来理解和生成人类语言。然而,由于这些模型缺乏深层次的语义理解,因此在处理过于复杂的指令或提示词时,可能会出现问题。模型可能无法全面理解复杂的提示词,可能会忽视某些部分,或者误解提示词的意图,进而未能将用户真正想要的信息及时、准确的反馈给用户,造成对于用户输入文本的处理效果较差,降低了用户的交互体验。
发明内容
本申请实施例的主要目的在于提供一种文本处理方法、装置、存储介质及设备,能够通过有效地编写提示词,使得AI模型可以更准确地理解和执行用户指示的任务,进而提高用户的交互体验。
本申请实施例提供了一种文本处理方法,包括:
获取目标用户输入的待处理的目标任务文本;
利用预设提示词的固定前缀,对所述目标任务文本进行结合处理,得到结合文本;
对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。
一种可能的实现方式中,所述预设提示词的固定前缀包括提示词的使用规则;所述提示词的使用规则包括利用第一预设标记符号标记提示词中的固定流程部分;所述提示词的使用规则包括利用第二预设标记符号标记提示词中的随机应变流程部分。
一种可能的实现方式中,所述利用预设提示词的固定前缀,对所述目标任务文本进行结合处理,得到结合文本之后,所述方法还包括:
将所述结合文本输入预先构建的大语言模型LLM;其中,所述大语言模型LLM是利用大规模的语言数据集,通过自回归生成的方式进行语言规则和模式训练得到的,所述大语言模型LLM在生成新的文本数据时,是基于之前已经生成的内容来预测下一个语言单元的可能性,直到生成出完整的文本数据;
所述对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本,包括:
利用所述大语言模型LLM对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。
一种可能的实现方式中,所述方法还包括:
将所述优化后的提示词文本反馈给所述目标用户。
一种可能的实现方式中,所述对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本,包括:
对所述结合文本进行自动解析,并根据解析结果,利用第一预设标记符号标记优化后的提示词文本中的固定流程部分文本;以及利用第二预设标记符号标记优化后的提示词文本中的随机应变流程部分文本。
一种可能的实现方式中,所述方法还包括:
调用所述大语言模型LLM的智能识别和处理能力,对所述提示词文本的随机应变流程部分文本进行更新,得到更新后的提示词文本。
一种可能的实现方式中,所述方法还包括:
根据所述优化后的提示词文本,生成符合自然语言习惯的回复文本,并将所述回复文本反馈给所述目标用户。
本申请实施例还提供了一种文本处理装置,包括:
获取单元,用于获取目标用户输入的待处理的目标任务文本;
结合单元,用于利用预设提示词的固定前缀,对所述目标任务文本进行结合处理,得到结合文本;
改写单元,用于对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。
一种可能的实现方式中,所述预设提示词的固定前缀包括提示词的使用规则;所述提示词的使用规则包括利用第一预设标记符号标记提示词中的固定流程部分;所述提示词的使用规则包括利用第二预设标记符号标记提示词中的随机应变流程部分。
一种可能的实现方式中,所述装置还包括:
输入单元,用于将所述结合文本输入预先构建的大语言模型LLM;其中,所述大语言模型LLM是利用大规模的语言数据集,通过自回归生成的方式进行语言规则和模式训练得到的,所述大语言模型LLM在生成新的文本数据时,是基于之前已经生成的内容来预测下一个语言单元的可能性,直到生成出完整的文本数据;
所述改写单元具体用于:
利用所述大语言模型LLM对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。
一种可能的实现方式中,所述装置还包括:
第一反馈单元,用于将所述优化后的提示词文本反馈给所述目标用户。
一种可能的实现方式中,所述改写单元具体用于:
对所述结合文本进行自动解析,并根据解析结果,利用第一预设标记符号标记优化后的提示词文本中的固定流程部分文本;以及利用第二预设标记符号标记优化后的提示词文本中的随机应变流程部分文本。
一种可能的实现方式中,所述装置还包括:
更新单元,用于调用所述大语言模型LLM的智能识别和处理能力,对所述提示词文本的随机应变流程部分文本进行更新,得到更新后的提示词文本。
一种可能的实现方式中,所述装置还包括:
第二反馈单元,用于根据所述优化后的提示词文本,生成符合自然语言习惯的回复文本,并将所述回复文本反馈给所述目标用户。
本申请实施例还提供了一种文本处理设备,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述文本处理方法中的任意一种实现方式。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述文本处理方法中的任意一种实现方式。
本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述文本处理方法中的任意一种实现方式。
本申请实施例提供的一种文本处理方法、装置、存储介质及设备,首先获取目标用户输入的待处理的目标任务文本;然后利用预设提示词的固定前缀,对目标任务文本进行结合处理,得到结合文本;接着可以对结合文本进行自动解析,并利用解析结果对预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。可见,由于本申请是通过结构化和自适应混合式的提示词编写方式,有效地优化了编写的提示词,提高了提示词的编写效率和准确率,从而使得相关AI模型可以更准确地理解和执行目标用户指示的目标任务,进而提高目标用户的交互体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种文本处理方法的流程示意图;
图2为本申请实施例提供的预设提示词的固定前缀的示例图;
图3为本申请实施例提供的目标用户输入的待处理的目标任务文本的示例图;
图4为本申请实施例提供的结合文本的提示词示例图;
图5为本申请实施例提供的优化后的提示词文本的示例图;
图6为本申请实施例提供的回复文本的示例图;
图7为本申请实施例提供的提示词的对比示例图;
图8为本申请实施例提供的一种文本处理装置的组成示意图。
具体实施方式
随着人工智能,尤其是自然语言处理(Natural Language Processing,简称NLP)的发展,已经使智能交互软件或设备(如ChatGPT、智能音箱等)等AI模型在理解和生成人类语言方面取得了显著的进步。然而,这些模型的理解仍然是基于统计和模式识别,而不是深层次的语义理解。这就引发了一个问题:当遇到过于复杂的指令或提示词时,模型可能会遇到困难。它们可能无法全面理解复杂的提示词,可能会忽视某些部分,或者误解提示词的意图。尽管提示词经过多次迭代,模型仍然可能难以理解任务的真正意图。这就导致了一个问题,即如何有效地编写提示词,使得AI模型可以更准确地理解和执行任务。
为了解决这个问题,研究人员开始使用提示词编写方法。这种方法的基本思想是将复杂的指令分解为一系列简单的提示词,以帮助AI模型更好地理解和执行指令。尽管现有的提示词编写方法在一定程度上增强了AI模型在处理复杂任务时的性能,但它们存在一些明显的缺点和技术问题。
具体来讲,首先,现有的提示词编写方法主要依赖于人工进行,这不仅耗费大量的人力和时间,而且可能由于人为因素导致提示词的编写效率和质量不稳定。尤其是在处理大量、复杂和动态变化的任务时,这种方法的编写效率和效果都可能大打折扣。
其次,现有的提示词编写方法通常是静态的,也就是说,它们无法根据任务的变化自动调整提示词。这就使得这些方法在处理复杂和动态的任务时面临挑战。
最后,尽管提示词已经经过多次迭代,但AI模型可能仍然难以理解任务的真实意图。因为AI模型并非真正理解语言,而是通过分析大量的数据来识别模式,因此,它们可能会忽视或误解提示词的某些部分。
因此,如何设计一种新的提示词编写方法,以提高提示词编写的效率和准确率,进而提升AI模型在处理复杂任务时的性能,同时考虑到灵活性和适应性,使得模型可以自适应地处理各种不同的任务和情况是目前亟待解决的技术问题。
为解决上述缺陷,本申请提供了一种文本处理方法,首先获取目标用户输入的待处理的目标任务文本;然后利用预设提示词的固定前缀,对目标任务文本进行结合处理,得到结合文本;接着可以对结合文本进行自动解析,并利用解析结果对预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。可见,由于本申请是通过结构化和自适应混合式的提示词编写方式,有效地优化了编写的提示词,提高了提示词的编写效率和准确率,从而使得相关AI模型可以更准确地理解和执行目标用户指示的目标任务,进而提高目标用户的交互体验。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
第一实施例
参见图1,为本实施例提供的一种文本处理方法的流程示意图,该方法包括以下步骤:
S101:获取目标用户输入的待处理的目标任务文本。
在本实施例中,将采用本实施例实现文本处理的任一用户向智能交互软件或设备(如ChatGPT、智能音箱等)输入的需要其执行的任务文本定义为待处理的目标任务文本,并将该用户定义为目标用户。
需要说明的是,本实施例不限制目标任务文本的语种类型,比如,目标任务文本可以是中文文本或英文文本等,并且,目标任务文本可以是来自于用户直接输入到智能交互软件中的,或者也可以是对用户输入的语音进行转换后得到的文本识别结果;本实施例也不限制目标任务文本的类型,比如,目标任务文本可以是目标用户输入的有关执行日常生活相关任务(如进行天气预测等)需求的文本,也可以是目标用户输入的关于音乐、医疗等各个特定领域的相关任务(如作曲或者画图等)需求的文本。
可以理解的是,目标任务文本可以为一个句子文本或段落文本,句子文本指的是各个词语的集合,段落文本指的是有句子文本组成的集合,在获取句子文本或段落文本作为待处理的目标任务文本后,可按照后续步骤对其进行处理以生成更便于AI模型理解的提示词,并据此提示词更准确地理解和执行目标用户提出的任务。
S102:利用预设提示词的固定前缀,对目标任务文本进行结合处理,得到结合文本。
在本实施例中,通过步骤S101获取到目标用户输入的待处理的目标任务文本后,为了能够对其进行有效地编写提示词,使得AI模型可以更准确地理解和执行目标用户指示的任务,进而提高目标用户的交互体验,进一步可以预设提示词的固定前缀,对目标任务文本进行结合处理,得到结合文本,用以继续执行后续步骤S103。
需要说明的是,本申请对预设提示词的固定前缀的具体内容不做限定,可根据实际情况和经验值进行设定。一种优选的实现方式是,预设提示词的固定前缀可以包括但不限于提示词的使用规则。其中,提示词的使用规则可以包括大不限于利用第一预设标记符号标记提示词中的固定流程部分,以及利用第二预设标记符号标记提示词中的随机应变流程部分。
其中,固定流程部分指的是对目标用户指示的任务的某个部分的描述,其内容和步骤在任务执行前就已经明确定义,无需进行大幅度调整。例如对于一个目标用户提出的购物任务,固定流程部分可能包括添加产品到购物车、输入送货地址、选择付款方式等步骤。
随机应变部分则指的是对目标用户指示的任务的另外某个部分的描述,其内容和步骤在任务执行过程中需要调用AI模型的智能识别和处理能力来实现。例如对于上述目标用户提出的购物任务,随机应变部分可能包括对商品的评价、对卖家的评价、对购物体验的评价等步骤。
另外,本申请对第一预设标记符号和第二预设标记符号的具体内容不做限定,仅需保证二者不同即可。例如,可以将第一预设标记符号和第二预设标记符号分别设定为“++”和“&&”,即,可以利用“++”标记“固定流程部分”,以及利用“&&”标记“随机应变部分”。
举例说明:假设预设提示词的固定前缀的如图2所示,且目标用户输入的待处理的目标任务文本如图3所示,则利用该预设提示词的固定前缀对目标任务文本进结合处理,得到的结合文本的提示词如图4所示,用以继续执行后续步骤S103。
S103:对结合文本进行自动解析,并利用解析结果对预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。
在本实施例中,通过步骤S102得到结合文本后,为了能够对其进行有效地编写提示词,使得AI模型可以更准确地理解和执行目标用户指示的任务,进而提高目标用户的交互体验,进一步可以利用现有或未来出现的文本解析方法,对结合文本进行自动解析,并利用解析结果对预设提示词进行结构化和自适应混合式的改写,得到优化后的提示(prompt)词文本,以便于AI模型能够更准确的理解该提示词,进而更准确地理解和执行目标用户提出的任务。
具体来讲,一种可选的实现方式是,在利用预设提示词的固定前缀对目标任务文本进结合处理,得到结合文本后,可以将其输入预先构建的大语言模型(large languagemodel,简称LLM),以利用该大语言模型LLM对结合文本进行自动解析,并利用解析结果对预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本,并可以将优化后的提示词文本反馈给目标用户,以确定其基本结构,以及是否符合目标用户的需求,若符合,则可以将改优化后的提示词文本直接输入给大语言模型LLM,若目标用户有其他需求,则可以调用大语言模型LLM的智能识别和处理能力,对提示词中相应语句进行修改,如对提示词文本中的随机应变流程部分文本进行更新,以得到更新后的提示词文本。
其中,大语言模型LLM是利用大规模的语言数据集,通过自回归生成的方式进行语言规则和模式训练得到的,大语言模型LLM在生成新的文本数据时,是基于之前已经生成的内容来预测下一个语言单元的可能性,直到生成出完整的文本数据。
一种可选的实现方式是,大语言模型LLM可以是一种基于深度学习的语言模型,其可以根据输入的文本内容生成新的语言表达,如文本、句子、段落甚至文章等。相较于传统的程序设计方法,大语言模型LLM不再需要人工动编写每一个细节,而是利用大规模的语言数据集,通过自回归生成的方式进行语言规则和模式训练得到,并可以模拟人类的指令生成语言表达(如文本数据)。具体的,大语言模型LLM在生成新的文本数据时,是基于之前已经生成的内容来预测下一个语言单元的可能性,直到生成出完整的文本数据。
具体来讲,一种可选的实现方式是,在提示词的改写过程中,可以通过大语言模型LLM对结合文本进行自动解析,并根据解析结果,识别出提示词文本中的“固定流程”部分文本和“随机应变流程”部分文本,并利用第一预设标记符号(如“++”)标记优化后的提示词文本中的固定流程部分文本;以及利用第二预设标记符号(如“&&”)标记优化后的提示词文本中的随机应变流程部分文本。
举例说明:基于上述举例,仍假设利用该预设提示词的固定前缀对目标任务文本进结合处理,得到的结合文本的提示词如图4所示,则利用大语言模型LLM对其进行改写后,得到的优化后的提示词文本如图5所示。
其中,对于"++"标记的“固定流程”部分文本,大语言模型LLM会按照预定义的规则和流程,确保其执行的准确性和稳定性。例如,如果在固定流程中明确规定了数据处理的步骤,那么模型将严格按照这些步骤执行。对于"&&"标记的“随机应变流程”部分文本,大语言模型LLM则需要根据具体的输入和情境,进行智能应变。例如,如果在随机应变流程中提出了根据输入内容生成相应的回应,那么模型将根据输入内容,利用其训练好的语言模型,生成相应的回应。
一种可选地实现方式是,在完成固定流程和随机应变流程的修改后,可以根据得到的优化后的提示词文本,生成符合自然语言习惯的回复文本,并将该回复文本反馈给目标用户,如大语言模型LLM可以根据目标用户提出的任务要求,向目标用户输出最终的任务结果。
举例说明:基于上述举例,在利用大语言模型LLM对其进行改写后,得到如图5所示的优化后的提示词文本后,进一步的,大语言模型LLM可以根据该优化后的提示词文本,执行目标用户提出的任务要求,并向目标用户输出如图6所示的回复文本作为任务结果。
这样,通过使用目标用户自定义的标记(如“++”和“&&”),大语言模型LLM可以灵活地处理各种类型的任务。目标用户也可以根据自己的需求自定义任务中部分流程,使模型能够应对各种复杂且特定的任务。在处理提示词文本(prompt)的“固定流程”部分时,模型严格按照预定义的规则和流程进行,保证了任务处理的准确性。在处理“随机应变流程”部分时,模型能够根据输入和情境进行智能应变,提高了任务处理的灵活性和适应性。
为便于理解本申请提出的文本处理方法,接下来,本申请将通过提示词示例对比的方式对文本处理过程中编写提示词的过程进行比对说明。
举例说明:如图7所示,其展示了三种不同的提示词的编写方式,被用来指示模型生成100个介于5到10之间的随机数。
图7左侧图展示的是自然语言提示词。这种提示词的编写方法直接使用自然语言来给出任务指令,如“任意生成100个5到10之间的数”。这种方法的好处是直观易懂,用户无需任何编程知识即可使用。然而,由于自然语言的模糊性,模型可能无法准确理解和执行用户的指令,例如对执行次数、执行顺序等特定需求的严格遵守。
图7中间图展示的是编程语言结合自然语言提示词。这种提示词的编写方法是使用编程语言的形式来给出任务指令,如“for iin range(100):任意生成5到10之间的数”。这种方法的好处是可以强制模型遵守指定的执行次数和顺序等逻辑。由于模型在预训练时见过大量的代码,因此它可以理解和执行这样的指令。然而,这种方法的缺点是需要用户具备一定的编程知识,对于没有编程基础的用户来说,可能难以理解和使用。
图7右侧图展示的是本申请提出的结构化和自适应混合式提示词。这种提示词的编写方法是结合了上述结构化和自适应的优点,使用自然语言来写出逻辑相关的部分,同时明确指定哪些是必须遵守的逻辑,哪些是可以任意解释的任务,如“+把下面被[]框起来的任务执行100遍+&生成5到10之间的任意一个数&”。这种方法的好处是,它既可以精确地指定任务的执行次数和顺序等逻辑,又可以使用自然语言来描述任务,使得没有编程基础的用户也能理解和使用。
可见,本申请提出的结构化和自适应混合式提示词编写方法相比其他两种编写方式具有以下四个优点:
一是提高了任务处理的准确性,即通过精确地指定任务的执行次数和顺序等逻辑,模型可以准确地执行用户的指令,避免了自然语言提示词可能存在的模糊性问题。
二是提高了任务处理的灵活性和适应性,即通过使用自然语言来描述任务,模型可以根据输入和情境进行自适应处理,从而处理各种复杂且特定的任务。
三是提高了用户友好性,即无需用户具备编程知识,其也能使用本申请提供的编写方法,大大降低了使用门槛,使得更多的用户能够利用模型来完成任务。
四是提高了任务处理的效率,即通过结构化和自适应混合式的编写方式,模型可以更高效地完成任务,避免了编程语言提示词可能需要的复杂和繁琐的编程步骤。
这样,通过执行上述步骤S101-S103,首先可能简化提示词编写过程,提高编写效率,降低人力成本,并使非专业人士也能轻松编写出有效的提示词。其次,通过结构化和自适应的混合编写方式,可以提高AI模型的输出效果,使其在处理复杂或多变的任务时有更好的表现。再者,可以提供更好的一致性和可预测性,确保每次使用相同的提示词时,模型都会遵循相同的基本步骤,同时使模型在面对不同的输入或情况时,能产生适应性的响应。最后,这种文本处理方法的结构化部分提供了一个明确的框架,更便于进行收集和解析反馈,从而优化提示词,同时自适应部分的灵活性也为模型的持续学习和改进提供了空间,进而便于AI模型能够更准确地理解和执行目标用户提出的任务,以利用ChatGPT或LLM等智能交互软件或设备,生成目标用户真正想要的回复信息,进而提高了用户的交互体验。
综上,本实施例提供的一种文本处理方法,首先获取目标用户输入的待处理的目标任务文本;然后利用预设提示词的固定前缀,对目标任务文本进行结合处理,得到结合文本;接着可以对结合文本进行自动解析,并利用解析结果对预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。可见,由于本申请是通过结构化和自适应混合式的提示词编写方式,有效地优化了编写的提示词,提高了提示词的编写效率和准确率,从而使得相关AI模型可以更准确地理解和执行目标用户指示的目标任务,进而提高目标用户的交互体验。
第二实施例
本实施例将对一种文本处理装置进行介绍,相关内容请参见上述方法实施例。
参见图8,为本实施例提供的一种文本处理装置的组成示意图,该装置800包括:
获取单元801,用于获取目标用户输入的待处理的目标任务文本;
结合单元802,用于利用预设提示词的固定前缀,对所述目标任务文本进行结合处理,得到结合文本;
改写单元803,用于对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。
在本实施例的一种实现方式中,所述预设提示词的固定前缀包括提示词的使用规则;所述提示词的使用规则包括利用第一预设标记符号标记提示词中的固定流程部分;所述提示词的使用规则包括利用第二预设标记符号标记提示词中的随机应变流程部分。
在本实施例的一种实现方式中,所述装置还包括:
输入单元,用于将所述结合文本输入预先构建的大语言模型LLM;其中,所述大语言模型LLM是利用大规模的语言数据集,通过自回归生成的方式进行语言规则和模式训练得到的,所述大语言模型LLM在生成新的文本数据时,是基于之前已经生成的内容来预测下一个语言单元的可能性,直到生成出完整的文本数据;
所述改写单元803具体用于:
利用所述大语言模型LLM对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。
在本实施例的一种实现方式中,所述装置还包括:
第一反馈单元,用于将所述优化后的提示词文本反馈给所述目标用户。
在本实施例的一种实现方式中,所述改写单元803具体用于:
对所述结合文本进行自动解析,并根据解析结果,利用第一预设标记符号标记优化后的提示词文本中的固定流程部分文本;以及利用第二预设标记符号标记优化后的提示词文本中的随机应变流程部分文本。
在本实施例的一种实现方式中,所述装置还包括:
更新单元,用于调用所述大语言模型LLM的智能识别和处理能力,对所述提示词文本的随机应变流程部分文本进行更新,得到更新后的提示词文本。
在本实施例的一种实现方式中,所述装置还包括:
第二反馈单元,用于根据所述优化后的提示词文本,生成符合自然语言习惯的回复文本,并将所述回复文本反馈给所述目标用户。
进一步地,本申请实施例还提供了一种文本处理设备,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述文本处理方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述文本处理方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述文本处理方法的任一种实现方法。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备,等等)执行本申请各个实施例或者实施例的某些部分所述的方法。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种文本处理方法,其特征在于,包括:
获取目标用户输入的待处理的目标任务文本;
利用预设提示词的固定前缀,对所述目标任务文本进行结合处理,得到结合文本;
对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。
2.根据权利要求1所述的方法,其特征在于,所述预设提示词的固定前缀包括提示词的使用规则;所述提示词的使用规则包括利用第一预设标记符号标记提示词中的固定流程部分;所述提示词的使用规则包括利用第二预设标记符号标记提示词中的随机应变流程部分。
3.根据权利要求1所述的方法,其特征在于,所述利用预设提示词的固定前缀,对所述目标任务文本进行结合处理,得到结合文本之后,所述方法还包括:
将所述结合文本输入预先构建的大语言模型LLM;其中,所述大语言模型LLM是利用大规模的语言数据集,通过自回归生成的方式进行语言规则和模式训练得到的,所述大语言模型LLM在生成新的文本数据时,是基于之前已经生成的内容来预测下一个语言单元的可能性,直到生成出完整的文本数据;
所述对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本,包括:
利用所述大语言模型LLM对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述优化后的提示词文本反馈给所述目标用户。
5.根据权利要求2所述的方法,其特征在于,所述对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本,包括:
对所述结合文本进行自动解析,并根据解析结果,利用第一预设标记符号标记优化后的提示词文本中的固定流程部分文本;以及利用第二预设标记符号标记优化后的提示词文本中的随机应变流程部分文本。
6.根据权利要求3所述的方法所述的方法,其特征在于,所述方法还包括:
调用所述大语言模型LLM的智能识别和处理能力,对所述提示词文本的随机应变流程部分文本进行更新,得到更新后的提示词文本。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述方法还包括:
根据所述优化后的提示词文本,生成符合自然语言习惯的回复文本,并将所述回复文本反馈给所述目标用户。
8.一种文本处理装置,其特征在于,包括:
获取单元,用于获取目标用户输入的待处理的目标任务文本;
结合单元,用于利用预设提示词的固定前缀,对所述目标任务文本进行结合处理,得到结合文本;
改写单元,用于对所述结合文本进行自动解析,并利用解析结果对所述预设提示词进行结构化和自适应混合式的改写,得到优化后的提示词文本。
9.一种文本处理设备,其特征在于,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行权利要求1-7任一项所述的方法。
CN202311134936.9A 2023-09-04 2023-09-04 一种文本处理方法、装置、存储介质及设备 Pending CN117112764A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311134936.9A CN117112764A (zh) 2023-09-04 2023-09-04 一种文本处理方法、装置、存储介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311134936.9A CN117112764A (zh) 2023-09-04 2023-09-04 一种文本处理方法、装置、存储介质及设备

Publications (1)

Publication Number Publication Date
CN117112764A true CN117112764A (zh) 2023-11-24

Family

ID=88803475

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311134936.9A Pending CN117112764A (zh) 2023-09-04 2023-09-04 一种文本处理方法、装置、存储介质及设备

Country Status (1)

Country Link
CN (1) CN117112764A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117573846A (zh) * 2024-01-16 2024-02-20 宏景科技股份有限公司 一种大语言模型的输出优化方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117573846A (zh) * 2024-01-16 2024-02-20 宏景科技股份有限公司 一种大语言模型的输出优化方法
CN117573846B (zh) * 2024-01-16 2024-05-28 宏景科技股份有限公司 一种大语言模型的输出优化方法

Similar Documents

Publication Publication Date Title
Kelly et al. Worst practices for domain-specific modeling
CN109783603B (zh) 基于自编码神经网络的文本生成方法、装置、终端及介质
CN112163420A (zh) 一种基于nlp技术的rpa流程自动生成方法
CN113901191A (zh) 问答模型的训练方法及装置
CN110795913A (zh) 一种文本编码方法、装置、存储介质及终端
CN117112764A (zh) 一种文本处理方法、装置、存储介质及设备
CN112115252A (zh) 智能辅助写作处理方法、装置、电子设备及存储介质
CN112101045A (zh) 一种多模态语义完整性识别方法、装置及电子设备
CN111858898A (zh) 基于人工智能的文本处理方法、装置及电子设备
CN116401354A (zh) 一种文本处理方法、装置、存储介质及设备
Leach Design in the age of artificial intelligence
CN110019304B (zh) 扩展问答知识库的方法及存储介质、终端
CN110019305B (zh) 知识库扩展方法及存储介质、终端
Grifoni et al. Computational methods and grammars in language evolution: a survey
Kovalev et al. Application of pretrained large language models in embodied artificial intelligence
Prajwal et al. Universal semantic web assistant based on sequence to sequence model and natural language understanding
CN116795970A (zh) 一种对话生成方法及其在情感陪护中的应用
CN116681088A (zh) 一种基于大模型的翻译系统、方法及储存介质
CN115017271B (zh) 用于智能生成rpa流程组件块的方法及系统
CN114036268A (zh) 基于意图门的任务型多轮对话方法及系统
CN108694165A (zh) 面向产品评论的跨领域对偶情感分析方法
CN112037780A (zh) 用于智能语音机器人的语义识别方法、装置及电子设备
Wachtel et al. A natural language dialog system based on active ontologies
CN112506945B (zh) 基于知识图谱的自适应导学方法及系统
CN112347196B (zh) 基于神经网络的实体关系抽取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination