CN116610790B - 应答数据的获取方法、装置、设备和介质 - Google Patents
应答数据的获取方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN116610790B CN116610790B CN202310875807.9A CN202310875807A CN116610790B CN 116610790 B CN116610790 B CN 116610790B CN 202310875807 A CN202310875807 A CN 202310875807A CN 116610790 B CN116610790 B CN 116610790B
- Authority
- CN
- China
- Prior art keywords
- data
- session
- response
- response data
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004044 response Effects 0.000 title claims abstract description 261
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000001914 filtration Methods 0.000 claims description 49
- 230000015654 memory Effects 0.000 claims description 28
- 238000011156 evaluation Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 12
- 238000010219 correlation analysis Methods 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 abstract description 31
- 238000011161 development Methods 0.000 abstract description 9
- 238000012546 transfer Methods 0.000 abstract description 5
- 238000003745 diagnosis Methods 0.000 description 32
- 230000000875 corresponding effect Effects 0.000 description 21
- 238000011282 treatment Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 230000003993 interaction Effects 0.000 description 7
- 208000024891 symptom Diseases 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 5
- 239000003814 drug Substances 0.000 description 5
- 238000012216 screening Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013075 data extraction Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 229940126585 therapeutic drug Drugs 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000011269 treatment regimen Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本说明书实施方式提供了一种应答数据的获取方法、装置、计算机设备和存储介质。所述方法包括:在接收到附带有会话标识和提问数据的应答数据获取请求的情况下,从会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据;根据提问数据和目标会话数据调用指定语言模型,得到针对提问数据的应答数据;将应答数据发送给应答数据获取请求的发送方。本说明书实施方式通过将服务器作为应答数据获取请求发送方与大语言模型之间的数据中转节点,存储并转发应答数据获取请求发送方与语言模型的会话数据,针对不同的应答数据获取请求发送方,该数据传输程序代码可以复用,从而减少了数据传输程序的开发工作量。
Description
技术领域
本说明书中实施方式关于人工智能技术领域,具体关于一种应答数据的获取方法、装置、设备和介质。
背景技术
随着深度学习技术的不断发展,用于处理自然语言的大语言模型(LargeLanguage Model,LLM)得到了越来越广泛的应用。目前,LLM能够完成包括语义理解、对话系统、文本生成、机器翻译等多种自然语言处理任务。其中,在LLM对话系统实现连续对话时,需要基于上下文信息理解用户意图,以提供更准确、更贴近用户预期的答复。
在相关技术中,在应用LLM对话系统时,通过客户端直接将接收到的用户提问数据以及该提问数据的上下文数据传输给LLM。然而,不同的客户端具有不同属性,需要针对每个客户端开发不同的数据传输程序代码,以实现将用户提问数据及上下文数据同时传输给LLM。
因此,相关技术中存在通过客户端直接向LLM传输用户提问数据及上下文数据,数据传输程序开发工作量大的技术问题。
发明内容
有鉴于此,本说明书多个实施方式致力于提供一种应答数据的获取方法、装置、设备和介质,以减少用于向LLM对话系统传输数据的数据传输程序的开发工作量。
本说明书中多个实施方式提供一种应答数据的获取方法,该方法应用于服务器,包括:在接收到附带有会话标识和提问数据的应答数据获取请求的情况下,从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据;其中,会话数据集的数量为多个,不同会话数据集对应的会话标识不相同;所述目标会话数据与所述提问数据不相同;根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据。
本说明书的一个实施方式提供一种应答数据的获取装置,该装置应用于服务器,包括:获取模块,用于在接收到附带有会话标识和提问数据的应答数据获取请求的情况下,从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据;其中,会话数据集的数量为多个,不同会话数据集对应的会话标识不相同;所述目标会话数据与所述提问数据不相同;调用模块,用于根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据。
本说明书实施方式提出一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述实施方式所述的方法。
本说明书实施方式提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序被处理器执行时实现上述实施方式所述的方法。
本说明书提供的多个实施方式中,在接收到应答数据获取请求的情况下,服务器根据应答数据获取请求附带的会话标识从会话数据集中获取目标会话数据,再根据应答数据获取请求附带的提问数据和目标会话数据调用大语言模型,得到针对提问数据的应答数据,即,将服务器作为应答数据获取请求发送方与大语言模型之间的数据中转节点,存储并转发应答数据获取请求发送方与语言模型的会话数据,因此,仅需要针对服务器开发向大语言模型传输提问数据和上下文数据的数据传输程序代码,针对不同的应答数据获取请求发送方,该数据传输程序代码可以复用,从而减少了数据传输程序的开发工作量。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书的一个实施方式提供的应答数据的获取系统的多端交互示意图。
图2为本说明书的一个实施方式提供的应答数据的获取系统的架构示意图。
图3为本说明书的一个实施方式提供的应答数据的获取方法的流程示意图。
图4为本说明书的一个实施方式提供的应答数据的获取装置的示意图。
图5为本说明书的一个实施方式提供的计算机设备的示意图。
具体实施方式
为使LLM对话系统给出更贴近用户预期的答复,在与用户连续对话的过程中,可以将用户提问数据以及该提问数据的上下文数据提供给LLM对话系统,以使LLM对话系统根据上下文数据更准确地理解和推测用户意图。
在相关技术中,用户提问数据及上下文数据主要通过客户端直接传输至LLM对话系统。具体的,可能存在以下两种情况。
第一种情况可以为客户端首次接收到用户输入的提问数据。在这种情况下,客户端可以先存储首次提问数据,再调用LLM访问接口,直接将首次提问数据传输给LLM对话系统。LLM对话系统在接收到首次提问数据后,可以对该首次提问数据进行语义理解、分析和推理,给出针对该首次提问数据的首次应答数据,并将该首次应答数据传输给客户端。客户端在接收到首次应答数据后,可以将首次应答数据与首次提问数据作为首次会话数据对应存储在本地。
第二种情况可以为在接收到首次提问数据之后,客户端再次接收到用户输入的提问数据。在这种情况下,客户端可以将通过人机交互界面接收到的再次提问数据和存储在本地的首次会话数据打包传输给LLM对话系统。LLM对话系统在接收到客户端传输的数据包后,可以先根据数据包内的首次会话数据进行语义理解和分析,对用户提问意图进行推测,再基于推测出的用户提问意图,对数据包内的再次会话数据进行语义理解、分析和推理,给出针对该再次提问数据的再次应答数据,并将该再次应答数据传输给客户端,以供客户端存储再次会话数据。
在第二种情况下,由于不同客户端的存储方式、存储路径、存储数据类型以及人机交互界面的设计等属性可能不同,需要针对每个客户端分别开发数据传输程序代码,以获取首次会话数据和再次提问数据并将两种数据打包传输给LLM对话系统,从而导致数据传输程序复用性较差,程序开发工作量较大。
因此,有必要提供一种应答数据的获取方法,在接收到应答数据获取请求的情况下,服务器根据应答数据获取请求附带的会话标识从会话数据集中获取目标会话数据,再根据应答数据获取请求附带的提问数据和目标会话数据调用大语言模型,得到针对提问数据的应答数据,即,将服务器作为应答数据获取请求发送方与大语言模型之间的数据中转节点,存储并转发应答数据获取请求发送方与语言模型的会话数据,因此,仅需要针对服务器开发向大语言模型传输提问数据和上下文数据的数据传输程序代码,针对不同的应答数据获取请求发送方,该数据传输程序代码可以复用,从而减少了数据传输程序的开发工作量。
本说明书提供一种智能问答系统的应用场景示例。该智能问答系统可以包括客户端、服务器和大语言模型对话系统。其中,客户端可以用于接收由用户操作输入的提问数据,服务器可以用于执行应答数据的获取方法,大语言模型对话系统可以用于生成针对提问数据的应答数据。以线上问诊为例,对本说明书实施方式提供的应答数据的获取方法进行说明。
请参阅图1。智能问答系统可以被配置为线上问诊平台。智能问答系统的客户端可以为线上问诊平台的问诊客户端。患者进入线上问诊平台提供的问诊客户端后,可以在问诊客户端上的问诊界面输入首次提问数据,例如,患者症状信息以及希望获取的病症诊断数据。问诊客户端在接收到患者输入的首次提问数据后,可以为该首次提问数据添加问诊会话标识,形成诊疗数据获取请求并将该诊疗数据获取请求发送给服务器。
服务器在接收到该诊疗数据获取请求的情况下,可以根据该诊疗数据获取请求附带的问诊会话标识确定问诊会话数据集。具体的,服务器可以将该问诊会话标识与已有的多个问诊会话数据集的会话标识进行匹配。由于服务器首次从该问诊客户端接收到诊疗数据获取请求,已有的多个问诊会话数据集的会话标识无法与该诊疗数据获取请求附带的会话标识匹配成功,则服务器可以为该诊疗数据获取请求附带的问诊会话标识新建对应的问诊会话数据集,并将该诊疗数据获取请求附带的首次提问数据存入该问诊会话数据集。此时,由于该问诊会话数据集中仅包括首次提问数据,服务器可以直接将该首次提问数据作为目标问诊会话数据,调用指定语言模型对话系统的访问接口,将该首次提问数据按照指定语言模型对话系统的数据传输规则传输给指定语言模型对话系统。
指定语言模型对话系统在接收到该首次提问数据后,可以结合其预先学习的语料与知识库,对该首次提问数据进行理解、分析和推理,得出针对该首次提问数据的病症诊断数据并将该病症诊断数据发送给服务器。其中,病症诊断数据可以包括可能出现患者症状信息所描述的症状的至少一种病症的病症数据,例如,病症名称、典型症状、发病原因等数据。
服务器在接收到该将该病症诊断数据后,可以将该病症诊断数据和首次提问数据作为相互关联的首次问诊会话数据,存入上述问诊会话数据集,并将该病症诊断数据发送给问诊客户端。
患者在通过问诊客户端获得该病症诊断数据后,可以根据该病症诊断数据输入再次提问数据,例如,希望获取病症诊断数据中的至少一种病症的详细信息。问诊客户端在接收到再次提问数据后,可以为该再次提问数据添加与首次提问数据相同的问诊会话标识,形成诊疗数据获取请求并将该诊疗数据获取请求发送给服务器。
服务器在接收到该诊疗数据获取请求的情况下,可以将该问诊会话标识与已有的多个问诊会话数据集的会话标识进行匹配,将匹配成功结果对应的问诊会话数据集作为该问诊会话标识标识的问诊会话数据集,并将该诊疗数据获取请求附带的再次提问数据存入该问诊会话数据集。此时,由于该问诊会话数据集中包括首次会话数据和再次提问数据,服务器可以从该问诊会话数据集中获取首次问诊会话数据作为目标问诊会话数据,调用指定的语言模型对话系统的访问接口,将该再次提问数据和首次问诊会话数据按照指定语言模型对话系统的数据传输规则共同传输给指定语言模型对话系统,以用于指定语言模型对话系统得出针对该再次提问数据的病症详细信息数据并将该病症详细信息数据发送给服务器。
可以重复执行上述客户端、服务器与指定语言模型对话系统之间的数据传输过程,使得指定语言模型对话系统可以基于多轮历史会话数据对患者意图进行推测。由服务器在每次接收到问诊客户端传输的诊疗数据获取请求的情况下,从问诊会话数据集中获取多轮历史会话数据并根据多轮历史会话数据和诊疗数据获取请求附带的提问数据调用指定语言模型对话系统,而问诊客户端仅接收患者输入的提问数据。因此,仅需要针对服务器开发向指定语言模型传输提问数据和目标问诊会话数据的数据传输程序代码,在一定程度上减少了数据传输程序的开发工作量。
请参阅图2。本说明书实施方式提供一种智能问答系统。所述智能问答系统可以包括客户端、服务器和指定语言模型对话系统。本说明书实施方式对客户端和服务器的数量不作具体限制。客户端和服务器之间可以通过有线或无线网络相互连接。
客户端可以是具有网络访问功能、数据存储功能和显示功能的电子设备。具体的,例如,客户端可以是台式电脑、平板电脑、笔记本电脑、智能手机、数字助理、智能可穿戴设备、智能电视等。其中,智能可穿戴设备包括但不限于智能手环、智能手表、智能眼镜、智能头盔等。或者,客户端也可以为能够运行于所述电子设备中的具有人机交互界面的计算机程序。
服务器可以是具有一定运算处理能力和数据传输能力的电子设备。具体的,服务器可以具有网络通信模块、处理器和存储器等。服务器也可以是指运行于所述电子设备中的计算机程序。服务器还可以为分布式服务器,可以为具有多个处理器、存储器、网络通信模块等协同运作的系统。或者,服务器还可以为若干服务器形成的服务器集群。或者,随着科学技术的发展,服务器还可以是能够实现说明书实施方式相应功能的新的技术手段。例如,可以是基于量子计算实现的新形态的“服务器”。
指定语言模型对话系统可以是具有深度学习能力的机器学习模型。具体的,指定语言模型对话系统可以具有语义理解、分析、推理、自然语言生成能力。
请参阅图3。本说明书的一个实施方式提供一种应答数据的获取方法。该方法可以应用于服务器,该方法可以包括以下步骤。
步骤S110:在接收到附带有会话标识和提问数据的应答数据获取请求的情况下,从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据;其中,会话数据集的数量为多个,不同会话数据集对应的会话标识不相同;所述目标会话数据与所述提问数据不相同。
在一些情况下,为减少向指定语言模型传输数据的数据传输程序的开发工作量,服务器可以接收来自多个应答数据获取请求发送方的应答数据获取请求,并根据应答数据获取请求附带的会话标识从不同会话数据集中获取应答数据获取请求附带的提问数据的上下文数据作为目标会话数据。
在本实施方式中,会话标识可以用于作为会话数据集的唯一标识。具体的,例如,会话标识可以与事项场景标识和用户标识一一对应,即,同一用户在同一事项场景下发生的会话具有相同的会话标识。以电商平台药品销售为例,购买药品和退换已购买的药品具有不同的事项场景标识,同一用户在这两个事项场景下发生的会话具有不同的会话标识。当然,在一些实施方式中,会话标识可以与用户标识一一对应,即,同一用户在不同事项场景下可以使用同一个会话标识。可以为会话数据集中的会话数据对应记录相应的事项场景标识。从而,实现不同的事项场景下的会话数据的区分。
在本实施方式中,提问数据可以包括应答数据获取请求发送方接收到的用户输入的数据。具体的,例如,应答数据获取请求发送方可以为具有人机交互界面的客户端,其中,人机交互界面可以设置有输入框,也可以预先设置有常用提问信息和选择按钮。提问数据可以包括用户执行输入操作输入的数据,也可以包括用户执行选择操作选择的数据。提问数据的数据类型可以包括文字数据、语音数据等。本说明书实施方式对提问数据的数据类型不作具体限定。
在本实施方式中,应答数据获取请求可以用于请求获取针对提问数据的应答数据。具体的,例如,应答数据获取请求可以包括会话标识、提问数据以及关键词数据。其中,关键词数据可以用于指定语言模型定位提问数据包含的语义信息所属的知识领域。关键词数据的获取方式可以与提问数据类似,通过人机交互界面接收用户输入获取。在一些实施方式中,关键词数据也可以由应答数据获取请求发送方通过对提问数据进行语义理解和分析,提取提问数据表示的信息中的关键信息生成。本说明书实施方式对关键词数据的获取方式不作具体限定。
在本实施方式中,会话数据可以为客户端与指定语言模型对话系统之间的会话产生的数据。具体的,例如,会话数据可以包括提问数据和针对提问数据的应答数据。在一些实施方式中,会话数据也可以仅包括提问数据,或仅包括应答数据,或者,包括部分提问数据和部分应答数据。
在本实施方式中,会话数据集可以为对应同一个会话标识的会话数据形成的数据集合。在一些实施方式中,也可以为每个会话标识设置与其对应的存储空间,将该存储空间内的数据形成的数据集合作为会话数据集。如此,每个会话数据集可以对应唯一的会话标识。
在本实施方式中,从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据,可以先确定应答数据获取请求附带的会话标识对应的会话数据集,再按照指定数据提取规则,从该会话数据集中提取至少部分会话数据,作为目标会话数据。具体的,例如,确定会话标识对应的会话数据集,可以通过将应答数据获取请求中附带的会话标识与多个会话数据集对应的会话标识分别进行匹配。若匹配成功,则可以确定匹配的会话数据集为该会话标识标识的会话数据集。按照指定数据提取规则,从该会话数据集中提取至少部分会话数据作为目标会话数据。在一些实施方式中,指定数据提取规则也可以包括从匹配的会话数据集中提取不超过指定数据字节数的会话数据,作为目标会话数据。
步骤S120:根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据。
在一些情况下,在获取到目标会话数据后,可以根据提问数据和目标会话数据调用指定语言模型,从而提高针对提问数据的应答数据的准确性。
在本实施方式中,指定语言模型可以用于结合所述目标会话数据生成针对提问数据的应答数据。具体的,例如,指定语言模型可以为采用发生会话的事项场景相关的文本数据预训练的大语言模型。指定语言模型可以包括聊天生成型预训练变换模型(ChatGenerative Pre-trainedTransformer,chatGPT)、对话应用语言模型(Language Modelfor DialogueApplications,LaMDA)、文心大模型、通义大模型等。以线上问诊事项场景为例,指定语言模型可以包括采用针对常见病症的问诊数据预训练的chatGPT模型。
在本实施方式中,应答数据可以包括指定语言模型基于预训练后获得的学习能力对目标会话数据进行语义理解、分析和推理,从而推测用户意图,并基于其预训练后获得的知识和推测出的用户意图,针对提问数据给出的反馈数据。具体的,以线上问诊事项场景为例,当提问数据为患者症状信息以及患者希望获得的病症诊断数据时,应答数据可以为病症诊断数据。
在本实施方式中,应答数据获取请求可以附带有语言模型标识。根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据,可以先通过应答数据获取请求附带的语言模型标识确定指定语言模型,再调用该指定语言模型的访问接口,将提问数据和目标会话数据按照该指定语言模型的数据传输规则传输给指定语言模型,并接收该指定语言模型传输的反馈数据。具体的,例如,指定语言模型的数据传输规则可以包括传输的数据结构和数据大小。其中,传输的数据结构可以包括传输的参数名称、参数数量、各参数对应的数据类型等。在指定语言模型为预训练大语言模型的情况下,指定语言模型的数据传输规则可能已经确定。则服务器可以根据该数据传输规则对提问数据和目标会话数据进行调整,使其符合数据传输规则的要求,再将符合数据传输规则的提问数据和目标会话数据传输给指定语言模型。
在一些实施方式中,应答数据获取请求还可以用于对指定语言模型进行训练。在这种情况下,提问数据可以包括用于训练指定语言模型的语料数据。针对提问数据的应答数据可以包括训练完成标识。以线上问诊事项场景为例,提问数据可以包括问答模板以及常见病症的诊疗指南数据、常见病症的常用药品的药品说明书数据等。在这种情况下,指定语言模型的数据传输规则可以根据训练结果进行调整。具体的,例如,可以根据训练结果增加传输的参数数量,并确定新增的参数对应的数据类型。
步骤S130:将所述应答数据发送给所述应答数据获取请求的发送方。
在一些情况下,服务器在接收到指定语言模型反馈的应答数据后,可以将应答数据发送给应答数据获取请求的发送方,以完成应答数据获取请求的发送方与指定语言模型之间的会话过程。
在本实施方式中,应答数据获取请求的发送方可以用于向服务器发送应答数据获取请求。具体的,例如,应答数据获取请求的发送方可以为客户端,客户端可以通过人机交互界面直接接收用户指令,根据用户指令生成应答数据获取请求,并将应答数据获取请求发送给服务器。在一些实施方式中,应答数据获取请求的发送方也可以为中台服务器,中台服务器可以接收客户端发送的用户指令,根据用户指令生成应答数据获取请求,并将应答数据获取请求发送给服务器。中台服务器也可以直接接收客户端发送的应答数据获取请求,并将应答数据获取请求转发给服务器。
在本实施方式中,将所述应答数据发送给所述应答数据获取请求的发送方,可以通过直接将接收到的指定语言模型反馈的应答数据转发给应答数据获取请求的发送方,也可以对接收到的指定语言模型反馈的应答数据进行初步处理,再将处理后的应答数据发送给应答数据获取请求的发送方。具体的,例如,可以为指定语言模型反馈的应答数据添加标识,再将附带有标识的应答数据发送给应答数据获取请求的发送方。
在本说明书实施方式中,通过将服务器作为应答数据获取请求发送方与大语言模型之间的数据中转节点,存储并转发应答数据获取请求发送方与语言模型的会话数据,仅需要针对服务器开发向大语言模型传输提问数据和上下文数据的数据传输程序代码,针对不同的应答数据获取请求发送方可以复用该数据传输程序代码,从而减少了数据传输程序的开发工作量。
在一些实施方式中,所述应答数据的获取方法还可以包括:将所述提问数据和针对所述提问数据的应答数据,作为相互关联的会话数据,存入所述会话数据集。
在一些情况下,由于提问数据和针对提问数据的应答数据对应存储于会话数据集中,在确定需要获取一项数据后,可以根据两者之间的关联关系获取对应的另一项数据,从而简化了从会话数据集中获取目标会话数据的流程,缩短了获取目标会话数据所需的时间。
在本实施方式中,将所述提问数据和针对所述提问数据的应答数据,作为相互关联的会话数据,存入所述会话数据集,可以先根据提问数据和针对提问数据的应答数据形成会话数据对,再将会话数据对存入会话数据集中。具体的,例如,可以将提问数据和针对提问数据的应答数据存入会话数据集,则可以直接利用提问数据和针对提问数据的应答数据组成会话数据对。
在一些实施方式中,也可以为提问数据和针对提问数据的应答数据添加标识,将提问数据和针对提问数据的应答数据存入关系型数据库,将提问数据的标识和应答数据的标识存入会话数据集,则可以利用标识组成会话数据对。例如,提问数据和针对提问数据的应答数据可以具有相同的会话轮次标识,提问数据的标识为0,针对提问数据的应答数据表示为1,则第二轮会话的提问数据的标识为(2,0),第二轮会话的应答数据的标识为(2,1),第二轮会话的会话数据对为((2,0),(2,1))。
在一些实施方式中,将所述提问数据和针对所述提问数据的应答数据,作为相互关联的会话数据,存入所述会话数据集,也可以将提问数据存入会话数据集的提问数据子集,将应答数据存入会话数据集的应答数据子集,其中,提问数据子集和应答数据子集之间具有指定关联关系。具体的,例如,相对应的提问数据和应答数据可以分别存入提问数据子集和应答数据子集相同索引对应的存储空间。
在一些实施方式中,从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据,可以包括:将所述提问数据与所述会话数据集中的会话数据进行语义相关性分析,得到与所述提问数据存在语义关联的会话数据,作为所述目标会话数据。
在用户与指定语言模型进行会话的过程中,会话话题可能会不断转移。仍以线上问诊事项场景为例,用户与指定语言模型之间的会话可能从病症诊断转移至治疗方案咨询,再转移至治疗药物副作用引起的病症诊断。在会话话题转移过程中,可能会出现历史会话数据与当前会话话题语义关联性不高的情况,此时,可以对当前提问数据与历史会话数据之间的语义相关性进行分析,将与当前提问数据语义相关性较高的会话数据作为目标会话数据,以提高针对当前提问数据的应答数据的准确性。
在本实施方式中,语义相关性分析可以通过基于深度学习模型对当前提问数据和历史会话数据分别进行语义分析,获得当前提问数据和历史会话数据之间的语义相似度。具体的,例如,可以基于长短期记忆人工神经网络(Long Short-Term Memory,LSTM)分别构建表示当前提问数据的向量和表示历史会话数据的向量,再求出两向量之间的距离。也可以基于递归卷积神经网络(Region Convolutional NeuralNetworks,R-CNN)抽取出当前提问数据和历史会话数据的高阶特征,再融合计算抽取出的多个高阶特征之间的相似度。
在本实施方式中,将所述提问数据与所述会话数据集中的会话数据进行语义相关性分析,得到与所述提问数据存在语义关联的会话数据,作为所述目标会话数据,可以分别计算当前提问数据和会话数据集中的每轮会话数据之间的语义相似度,并设置语义关联筛选条件,将会话数据集中满足该语义关联筛选条件的会话数据作为目标会话数据。具体的,例如,语义关联筛选条件可以为语义相似度的指定数值。可以将会话数据集中与当前提问数据的语义相似度不小于指定数据的会话数据,作为目标会话数据。
在一些实施方式中,提问数据和针对所述提问数据的应答数据可以形成一轮会话数据;从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据,可以包括:在所述会话数据集包括的会话数据的轮数小于指定轮数的情况下,将所述会话数据集中全部会话数据,作为所述目标会话数据;在所述会话数据集包括的会话数据的轮数大于或等于所述指定轮数的情况下,按照会话数据存入所述会话数据集的时间顺序,将最近存入所述会话数据集的所述指定轮数的会话数据,作为所述目标会话数据。
由于向指定语言模型传输数据可能存在数据包大小、数据带宽、数据传输速率等方面的限制,无法在每次向指定语言模型传输数据时,将会话数据集中包括的全部会话数据作为目标会话数据。为在满足向指定语言模型传输数据的数据传输规则的条件下,使得指定语言模型能够根据目标会话较为准确地推测用户意图,可以设置会话数据的指定轮数,通过比较会话数据集包括的会话数据的轮数与指定轮数的大小,确定将会话数据集中的全部或部分会话数据作为目标会话数据。
在本实施方式中,会话数据集包括的会话数据的轮数可以表示会话数据集中包括的已完成的完整会话轮数。具体的,例如,可以为会话数据集设置会话轮数计数器,会话数据的轮数可以通过会话轮数计数器获得,在每次将提问数据和针对提问数据的应答数据对应存入会话数据集时,会话轮数计数器加1。
在本实施方式中,指定轮数可以由应答数据获取请求发送方指定,即,应答数据获取请求可以附带指定轮数。
在一些实施方式中,指定轮数可以为默认轮数。具体的,例如,默认轮数可以为预设轮数,也可以为应答数据获取请求发送方过往指定的历史轮数,或者可以为与指定语言模型数据传输规则匹配的会话轮数。本说明书的实施方式对默认轮数不作具体限定。
在一些实施方式中,根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据,可以包括:通过指定语义过滤规则过滤所述提问数据,得到目标提问数据;其中,所述目标提问数据表达的语义满足指定语义过滤条件;根据所述目标提问数据和所述目标会话数据调用指定语言模型,得到针对所述目标提问数据的初步应答数据;通过指定语义过滤规则过滤所述初步应答数据,得到目标应答数据,作为针对所述提问数据的应答数据;其中,所述目标应答数据表达的语义满足指定语义过滤条件。
在一些情况下,用户输入时可能会发生误触操作,可能导致应答数据获取请求发送方接收到的提问数据中包括表达的语义为敏感词的数据或无法表示语义的数据。同时,调用指定语言模型得到的针对提问数据的应答数据可能也会包括上述两种数据。在这种情况下,可以通过指定语义过滤规则对提问数据和指定语言模型直接反馈的初步应答数据进行过滤,使得目标提问数据和目标应答数据表达的语义均满足指定语义过滤条件。
在本实施方式中,指定语义过滤条件可以用于衡量提问数据表达的语义是否符合网络用语规范以及是否包含实际语义。具体的,例如,指定语义过滤条件可以包括敏感词过滤条件和无意义字符串过滤条件。
在本实施方式中,指定语义过滤规则可以用于按照指定语义过滤条件筛选提问数据。具体的,指定语义过滤规则可以包括不同指定语义过滤条件的筛选顺序。例如,指定语义过滤规则可以包括先采用敏感词过滤条件对提问数据进行筛选,再采用无意义字符串过滤条件对符合敏感词过滤条件的提问数据进行筛选。指定语义过滤规则也可以包括对于提问数据中符合和/或不符合指定语义过滤条件的数据进行的处理。例如,指定语义过滤规则可以包括对提问数据中符合敏感词过滤条件的数据进行保留处理,不符合敏感词过滤条件的数据进行隐藏处理。
在本实施方式中,初步应答数据可以用于表示指定语言模型基于目标提问数据和目标会话数据直接提供的应答数据。
在本实施方式中,通过指定语义过滤规则过滤提问数据,得到目标提问数据,可以通过保留提问数据中满足指定语义过滤条件的数据,删除或隐藏提问数据中未满足指定语义过滤条件的数据,并对经过过滤的提问数据进行语义通顺处理,将语义通顺处理后的提问数据作为目标提问数据。具体的,例如,针对敏感词过滤条件,可以设置以下两种提问数据处理方式。第一种提问数据处理方式可以为保留全部提问数据。采取这种提问数据处理方式的前提是在提问数据整体表达的语义中,敏感词为关键语义信息,隐藏敏感词对提问数据整体的语义表达影响较大。值得注意的是,对于采用第一种提问数据处理方式处理后的提问数据,服务器可以直接将预设数据作为针对提问数据的应答数据,而不会继续执行后续调用语言模型得到初步应答数据,并对初步应答数据进行过滤的步骤。第二种提问数据处理方式可以为保留提问数据中满足条件的数据,隐藏提问数据中未满足条件的数据。采取这种提问数据处理方式的前提是在提问数据整体表达的语义中,隐藏敏感词对提问数据整体的语义表达影响较小。针对无意义字符串过滤条件,可以保留提问数据中满足条件的数据,删除提问数据中未满足条件的数据。由于删除表示无意义字符串的数据或隐藏表示敏感词的数据后,经过过滤的提问数据表达的语义可能存在不通顺的情况。此时,可以基于未过滤的提问数据表达的语义对经过过滤的提问数据表达的语义进行简要补充和语序调整,使得经过过滤的提问数据表示语义较为完整通顺。
在本实施方式中,通过指定语义过滤规则过滤初步应答数据,得到目标应答数据的过程与上述通过指定语义过滤规则过滤提问数据,得到目标提问数据的过程基本相同,此处不再赘述。
在一些实施方式中,在分别得到目标提问数据和目标应答数据后,还可以分别对目标提问数据和目标应答数据进行数据安全审计,以检测是否存在数据泄露的情况。
在一些实施方式中,所述应答数据获取请求还可以附带由所述应答数据获取请求的发送方指定的多个语言模型;根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据,可以包括:根据所述提问数据和所述目标会话数据调用所述多个语言模型,取得各个语言模型针对所述提问数据的模型应答数据;通过指定评价规则对多个模型应答数据进行评价,将评价结果满足指定条件的模型应答数据作为针对所述提问数据的应答数据。
在能够调用多个语言模型的情况下,不同语言模型基于提问数据和目标会话数据提供的应答数据可能存在差异。此时,可以对多个语言模型提供的多个模型应答数据进行评价,将评价结果满足指定条件的模型应答数据作为针对提问数据的应答数据,以提高应答数据的准确性和答复质量。
在本实施方式中,模型应答数据可以用于表示各个语言模型基于提问数据和目标会话数据分别生成的针对提问数据的应答数据。具体的,一个语言模型可以生成一个模型应答数据,语言模型与模型应答数据之间可以具有一一对应关系。例如,模型应答数据可以具有语言模型标识。
在本实施方式中,指定评价规则可以包括对模型应答数据进行评价的评价参数、评价方式、各评价参数的权重、各评价参数的评价标准、评价结果的表现形式等。具体的,例如,评价参数可以包括:模型应答数据的字节数、模型应答数据表达的语义的语义通顺度、模型应答数据表达的语义与提问数据表达的语义之间的语义相关度等。评价方式可以采用百分制评分。各评价参数的权重可以包括:字节数的权重可以为0.2,语义通顺度的权重可以为0.4,语义相关度的权重可以为0.4。各评价参数的评价标准可以包括:字节数越小,评分越高;语义通顺度越高,评分越高;语义相关度越高,评分越高。评价结果的表现形式可以为多项评价参数的加权评分。
在本实施方式中,指定条件可以用于衡量多个模型应答数据的评价结果。具体的,例如,指定条件可以为加权评分的指定数值条件。
在本实施方式中,根据提问数据和目标会话数据调用多个语言模型,取得针对提问数据的多个模型应答数据的过程与上述实施方式中根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据的过程基本相同,此处不再赘述。
在本实施方式中,通过指定评价规则对多个模型应答数据进行评价,将评价结果满足指定条件的模型应答数据作为针对所述提问数据的应答数据,可以通过分别对多个模型应答数据进行评价,将多个模型应答数据的评价结果分别与指定条件进行比较,将满足指定条件的模型应答数据作为针对提问数据的应答数据。具体的,以模型应答数据的评价结果为加权评分,指定条件为加权评分的指定数值条件为例。在得到多个模型应答数据各自的加权评分后,可以将这些加权评分分别与指定数值条件进行比较,将加权评分高于指定数值的模型应答数据作为针对提问数据的应答数据。在一些实施方式中,还可以对加权评分高于指定数值的模型应答数据进行筛选,将通过筛选的应答数据作为针对提问数据的应答数据。例如,可以将加权评分最高的模型应答数据作为针对提问数据的应答数据。
在一些实施方式中,将所述应答数据发送给所述应答数据获取请求的发送方,可以包括:向所述应答数据获取请求的发送方发送应答数据获取标识,以用于所述应答数据获取请求的发送方基于所述应答数据获取标识,通过轮询方式获得所述应答数据;其中,所述应答数据获取标识与所述应答数据之间存在指定关联关系。
在一些情况下,应答数据获取请求的发送方向服务器发送应答数据获取请求后,该应答数据获取请求的发送方的资源将会被持续占用,直至接收到服务器发送的应答数据。为减少计算资源占用,实现应答数据获取请求的发送方的多任务并行处理,提高应答数据获取请求的发送方的计算资源利用效率,服务器可以先向应答数据获取请求的发送方发送应答数据获取标识,应答数据获取请求的发送方可以基于该应答数据获取标识,通过轮询方式获得应答数据。
在本实施方式中,应答数据获取标识可以用于作为获取应答数据的数据凭证。具体的,例如,应答数据获取标识可以为数据令牌。
在本实施方式中,指定关联关系可以用于表示应答数据获取标识与应答数据之间的对应关系。具体的,例如,应答数据获取标识可以与应答数据相互匹配。
在本实施方式中,应答数据获取请求的发送方在接收到应答数据获取标识后,可以基于该应答数据获取标识,通过轮询方式获得应答数据。具体的,例如,应答数据获取请求的发送方可以按照指定时间间隔,向服务器发送附带有应答数据获取标识的应答数据获取询问。服务器在接收到应答数据获取询问后,可以将应答数据获取标识与当前接收到的应答数据进行匹配。若匹配成功,则服务器向应答数据获取请求的发送方发送该应答数据。若匹配失败,则服务器向应答数据获取请求的发送方发送匹配失败回复。应答数据获取请求的发送方在接收到匹配失败回复后,在指定时间间隔后再次向服务器发送附带有应答数据获取标识的应答数据获取询问。应答数据获取请求的发送方可以重复上述发送应答数据获取询问的过程,直至接收到应答数据。
请参阅图4。本说明书的一个实施方式还提供一种应答数据的获取装置。所述装置可以包括:获取模块、调用模块和发送模块。
获取模块,可以用于在接收到附带有会话标识和提问数据的应答数据获取请求的情况下,从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据;其中,会话数据集的数量为多个,不同会话数据集对应的会话标识不相同;所述目标会话数据与所述提问数据不相同;
调用模块,可以用于根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据;其中,所述指定语言模型用于结合所述目标会话数据生成所述提问数据的应答数据;
发送模块,可以用于将所述应答数据发送给所述应答数据获取请求的发送方。
关于应答数据的获取装置实现的具体功能和效果,可以参照本说明书其他实施方式对照解释,在此不再赘述。所述应答数据的获取装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。所述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
请参阅图5。本说明书实施方式还提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述任一实施方式中的应答数据的获取方法。
本说明书实施方式还提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被计算机执行时使得,该计算机执行上述任一实施方式中的应答数据的获取方法。
本说明书实施方式还提供一种包含指令的计算机程序产品,该指令被计算机执行时使得计算机执行上述任一实施方式中的应答数据的获取方法。
本说明书多个实施方式中所涉及的用户信息或者用户账户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经过用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律规定和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
可以理解,本文中的具体的例子只是为了帮助本领域技术人员更好地理解本说明书实施方式,而非限制本发明的范围。
可以理解,在本说明书中的各种实施方式中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本说明书实施方式的实施过程构成任何限定。
可以理解,本说明书中描述的各种实施方式,既可以单独实施,也可以组合实施,本说明书实施方式对此并不限定。
除非另有说明,本说明书实施方式所使用的所有技术和科学术语与本说明书的技术领域的技术人员通常理解的含义相同。本说明书中所使用的术语只是为了描述具体的实施方式的目的,不是旨在限制本说明书的范围。本说明书所使用的术语“和/或”包括一个或多个相关的所列项的任意的和所有的组合。在本说明书实施方式和所附权利要求书中所使用的单数形式的“一种”、“上述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
可以理解,本说明书实施方式的处理器可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法实施方式的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific IntegratedCircuit,ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本说明书实施方式中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本说明书实施方式所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
可以理解,本说明书实施方式中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM)、可编程只读存储器(programmableROM,PROM)、可擦除可编程只读存储器(erasablePROM,EPROM)、电可擦除可编程只读存储器(EEPROM)或闪存。易失性存储器可以是随机存取存储器(RAM)。应注意,本文描述的系统和方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
本领域普通技术人员可以意识到,结合本文中所公开的实施方式描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本说明书的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施方式中的对应过程,在此不再赘述。
在本说明书所提供的几个实施方式中,应所述理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本说明书各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本说明书的技术方案本质上或者说对现有技术做出贡献的部分或者所述技术方案的部分可以以软件产品的形式体现出来,所述计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本说明书各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM)、随机存取存储器(RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本说明书的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本说明书揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本说明书的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (9)
1.一种应答数据的获取方法,其特征在于,应用于服务器,所述服务器用于接收来自多个应答数据获取请求的发送方发送的应答数据获取请求;所述方法包括:
在接收到附带有会话标识和提问数据的应答数据获取请求的情况下,从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据;其中,所述会话标识与用户标识一一对应;会话数据集的数量为多个,不同会话数据集对应的会话标识不相同;所述目标会话数据与所述提问数据不相同;
根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据;其中,所述指定语言模型用于结合所述目标会话数据生成所述提问数据的应答数据;所述根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据的步骤,包括:通过指定语义过滤规则过滤所述提问数据,得到目标提问数据;其中,所述目标提问数据表达的语义满足指定语义过滤条件;根据所述目标提问数据和所述目标会话数据调用指定语言模型,得到针对所述目标提问数据的初步应答数据;通过指定语义过滤规则过滤所述初步应答数据,得到目标应答数据,作为针对所述提问数据的应答数据;其中,所述目标应答数据表达的语义满足指定语义过滤条件;
将所述应答数据发送给所述应答数据获取请求的发送方;
将所述提问数据和针对所述提问数据的应答数据,作为相互关联的会话数据,存入所述会话标识标识的会话数据集。
2.根据权利要求1所述的方法,其特征在于,从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据的步骤,包括:
将所述提问数据与所述会话数据集中的会话数据进行语义相关性分析,得到与所述提问数据存在语义关联的会话数据,作为所述目标会话数据。
3.根据权利要求1所述的方法,其特征在于,提问数据和针对所述提问数据的应答数据形成一轮会话数据;从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据的步骤,包括:
在所述会话数据集包括的会话数据的轮数小于指定轮数的情况下,将所述会话数据集中全部会话数据,作为所述目标会话数据;
在所述会话数据集包括的会话数据的轮数大于或等于所述指定轮数的情况下,按照会话数据存入所述会话数据集的时间顺序,将最近存入所述会话数据集的所述指定轮数的会话数据,作为所述目标会话数据。
4.根据权利要求3所述的方法,其特征在于,所述应答数据获取请求还附带由所述应答数据获取请求的发送方指定的所述指定轮数。
5.根据权利要求1所述的方法,其特征在于,所述应答数据获取请求还附带由所述应答数据获取请求的发送方指定的多个语言模型;根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据的步骤,包括:
根据所述提问数据和所述目标会话数据调用所述多个语言模型,取得各个语言模型针对所述提问数据的模型应答数据;
通过指定评价规则对多个模型应答数据进行评价,将评价结果满足指定条件的模型应答数据作为针对所述提问数据的应答数据。
6.根据权利要求1所述的方法,其特征在于,将所述应答数据发送给所述应答数据获取请求的发送方的步骤,包括:
向所述应答数据获取请求的发送方发送应答数据获取标识,以用于所述应答数据获取请求的发送方基于所述应答数据获取标识,通过轮询方式获得所述应答数据;其中,所述应答数据获取标识与所述应答数据之间存在指定关联关系。
7.一种应答数据的获取装置,其特征在于,应用于服务器,所述服务器用于接收来自多个应答数据获取请求的发送方发送的应答数据获取请求;所述装置包括:
获取模块,用于在接收到附带有会话标识和提问数据的应答数据获取请求的情况下,从所述会话标识标识的会话数据集中,获取至少部分会话数据,作为目标会话数据;其中,所述会话标识与用户标识一一对应;会话数据集的数量为多个,不同会话数据集对应的会话标识不相同;所述目标会话数据与所述提问数据不相同;
调用模块,用于根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据;其中,所述指定语言模型用于结合所述目标会话数据生成所述提问数据的应答数据;所述根据所述提问数据和所述目标会话数据调用指定语言模型,得到针对所述提问数据的应答数据的步骤,包括:通过指定语义过滤规则过滤所述提问数据,得到目标提问数据;其中,所述目标提问数据表达的语义满足指定语义过滤条件;根据所述目标提问数据和所述目标会话数据调用指定语言模型,得到针对所述目标提问数据的初步应答数据;通过指定语义过滤规则过滤所述初步应答数据,得到目标应答数据,作为针对所述提问数据的应答数据;其中,所述目标应答数据表达的语义满足指定语义过滤条件;
发送模块,用于将所述应答数据发送给所述应答数据获取请求的发送方;
存储模块,用于将所述提问数据和针对所述提问数据的应答数据,作为相互关联的会话数据,存入所述会话标识标识的会话数据集。
8.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述的方法。
9.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310875807.9A CN116610790B (zh) | 2023-07-18 | 2023-07-18 | 应答数据的获取方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310875807.9A CN116610790B (zh) | 2023-07-18 | 2023-07-18 | 应答数据的获取方法、装置、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116610790A CN116610790A (zh) | 2023-08-18 |
CN116610790B true CN116610790B (zh) | 2023-10-10 |
Family
ID=87680385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310875807.9A Active CN116610790B (zh) | 2023-07-18 | 2023-07-18 | 应答数据的获取方法、装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116610790B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101120341A (zh) * | 2005-02-06 | 2008-02-06 | 凌圭特股份有限公司 | 以自然语言进行移动式信息访问的方法和设备 |
CN109002515A (zh) * | 2018-07-04 | 2018-12-14 | 网宿科技股份有限公司 | 一种智能应答的方法和装置 |
CN111309889A (zh) * | 2020-02-27 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 用于文本处理的方法和装置 |
CN111597821A (zh) * | 2020-05-13 | 2020-08-28 | 北京嘀嘀无限科技发展有限公司 | 一种确定应答概率的方法及装置 |
CN111966796A (zh) * | 2020-07-21 | 2020-11-20 | 福建升腾资讯有限公司 | 问答对提取方法、装置、设备及可读存储介质 |
WO2021068321A1 (zh) * | 2019-10-12 | 2021-04-15 | 平安科技(深圳)有限公司 | 基于人机交互的信息推送方法、装置和计算机设备 |
WO2021249528A1 (zh) * | 2020-06-12 | 2021-12-16 | 支付宝(杭州)信息技术有限公司 | 智能对话方法、装置和电子设备 |
CN114118080A (zh) * | 2021-11-10 | 2022-03-01 | 北京深维智信科技有限公司 | 一种从销售会话中自动识别客户意向的方法及系统 |
CN114490994A (zh) * | 2022-03-28 | 2022-05-13 | 北京沃丰时代数据科技有限公司 | 对话管理方法及装置 |
CN115146124A (zh) * | 2022-07-08 | 2022-10-04 | 广州华多网络科技有限公司 | 问答系统应答方法及其装置、设备、介质、产品 |
CN116415650A (zh) * | 2023-04-17 | 2023-07-11 | 惠州市沃羊文化发展有限公司 | 生成对话语言模型及生成对话的方法、装置和存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10824658B2 (en) * | 2018-08-02 | 2020-11-03 | International Business Machines Corporation | Implicit dialog approach for creating conversational access to web content |
-
2023
- 2023-07-18 CN CN202310875807.9A patent/CN116610790B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101120341A (zh) * | 2005-02-06 | 2008-02-06 | 凌圭特股份有限公司 | 以自然语言进行移动式信息访问的方法和设备 |
CN109002515A (zh) * | 2018-07-04 | 2018-12-14 | 网宿科技股份有限公司 | 一种智能应答的方法和装置 |
WO2021068321A1 (zh) * | 2019-10-12 | 2021-04-15 | 平安科技(深圳)有限公司 | 基于人机交互的信息推送方法、装置和计算机设备 |
CN111309889A (zh) * | 2020-02-27 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 用于文本处理的方法和装置 |
CN111597821A (zh) * | 2020-05-13 | 2020-08-28 | 北京嘀嘀无限科技发展有限公司 | 一种确定应答概率的方法及装置 |
WO2021249528A1 (zh) * | 2020-06-12 | 2021-12-16 | 支付宝(杭州)信息技术有限公司 | 智能对话方法、装置和电子设备 |
CN111966796A (zh) * | 2020-07-21 | 2020-11-20 | 福建升腾资讯有限公司 | 问答对提取方法、装置、设备及可读存储介质 |
CN114118080A (zh) * | 2021-11-10 | 2022-03-01 | 北京深维智信科技有限公司 | 一种从销售会话中自动识别客户意向的方法及系统 |
CN114490994A (zh) * | 2022-03-28 | 2022-05-13 | 北京沃丰时代数据科技有限公司 | 对话管理方法及装置 |
CN115146124A (zh) * | 2022-07-08 | 2022-10-04 | 广州华多网络科技有限公司 | 问答系统应答方法及其装置、设备、介质、产品 |
CN116415650A (zh) * | 2023-04-17 | 2023-07-11 | 惠州市沃羊文化发展有限公司 | 生成对话语言模型及生成对话的方法、装置和存储介质 |
Non-Patent Citations (2)
Title |
---|
曹海涛等.基于集群节点间即时拷贝的会话同步技术研究.《计算机系统应用》.2017,(第03期),全文. * |
李洪坤.基于多任务学习的会话推荐模型.《CNKI优秀硕士学位论文全文库》.2022,(2022年第03期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN116610790A (zh) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11574077B2 (en) | Systems and methods for removing identifiable information | |
US11882118B2 (en) | Identity verification and management system | |
CN110797124B (zh) | 一种模型多端协同训练方法、医疗风险预测方法和装置 | |
AU2020203865B2 (en) | System for securing a personal digital assistant with stacked data structures | |
KR101790092B1 (ko) | 인공지능형 에이전트 또는 시스템을 작성 및 구현하는 시스템 및 방법 | |
US11567949B2 (en) | Data discovery solution for data curation | |
CN106874253A (zh) | 识别敏感信息的方法及装置 | |
CN108111399B (zh) | 消息处理的方法、装置、终端及存储介质 | |
CN113821587A (zh) | 文本相关性确定方法、模型训练方法、装置及存储介质 | |
CN115914148A (zh) | 具有两侧建模的对话智能体 | |
CN117174232A (zh) | 一种电子病历的生成方法、装置、电子设备及存储介质 | |
WO2021175010A1 (zh) | 用户性别识别的方法、装置、电子设备及存储介质 | |
CN116610790B (zh) | 应答数据的获取方法、装置、设备和介质 | |
Lola et al. | Chatbot for fitness management using IBM Watson | |
CN116488850A (zh) | 真实性验证方法和装置 | |
WO2022089220A1 (zh) | 图像数据处理方法、装置、设备、存储介质及产品 | |
CN111552890B (zh) | 基于名称预测模型的名称信息处理方法、装置、电子设备 | |
CN113782022B (zh) | 基于意图识别模型的通信方法、装置、设备及存储介质 | |
JP6995966B2 (ja) | スタック形式のデータ構造のデジタルアシスタント処理 | |
Kalpana et al. | Legal Solutions-Intelligent Chatbot using Machine Learning | |
CN118427331A (zh) | 一种身份认知问询的处理方法、装置、电子设备、存储介质 | |
CN114138958A (zh) | 信息交互方法、装置、设备及存储介质 | |
CN116975821A (zh) | 信息处理方法、装置、电子设备、存储介质及程序产品 | |
CN117112937A (zh) | 访问请求的处理方法、相关设备及存储介质 | |
CN116258491A (zh) | 一种数据处理方法、装置、设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |