CN113377931A - 一种交互式机器人的语言模型协作学习方法、系统及终端 - Google Patents
一种交互式机器人的语言模型协作学习方法、系统及终端 Download PDFInfo
- Publication number
- CN113377931A CN113377931A CN202010155610.4A CN202010155610A CN113377931A CN 113377931 A CN113377931 A CN 113377931A CN 202010155610 A CN202010155610 A CN 202010155610A CN 113377931 A CN113377931 A CN 113377931A
- Authority
- CN
- China
- Prior art keywords
- model
- language
- robot
- module
- language interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000003993 interaction Effects 0.000 claims abstract description 175
- 238000004590 computer program Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 abstract description 14
- 238000013473 artificial intelligence Methods 0.000 abstract description 5
- 230000008451 emotion Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 206010003805 Autism Diseases 0.000 description 1
- 208000020706 Autistic disease Diseases 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioethics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请适用于人工智能技术领域,提供一种交互式机器人的语言模型协作学习方法、系统及终端,其中方法包括:通过所述模型问答模块发送第一联合学习请求至同一网络中连接的至少一个机器人;通过模型问答模块获取至少一个机器人中第一机器人基于第一联合学习请求发送的语言交互模型参数;通过联合学习算法模块将第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的本地语言交互模型;通过模型数据库引擎模块将更新后的本地语言交互模型存储至模型数据库。基于此套机制可以避免用户隐私数据泄漏,使得单个交互式机器人接收到的情感数据更加真实,最终联合学习到的语言模型也更具逻辑性和智能性。
Description
技术领域
本申请属于人工智能技术领域,尤其涉及一种交互式机器人的语言模型协作学习方法、系统及终端。
背景技术
当代社会,人们并非离群索居,但却因为忙于日常工作而缺少交流,时常感到孤独。据了解,全世界有6000万的孤独症患者,且呈现爆炸式上升趋势。孤独和抑郁正成为人类社会中一个亟待解决的问题。随着人工智能技术的发展,基于自然语言处理技术的交互式机器人成为解决这一难题的突破口。
交互式机器人被赋予不仅要有自然的与人沟通能力,还要理解人类的思维方式。目前的交互式机器人只能够进行简单的对话,缺乏智能性。而且基于固定语言模型的交互式机器人,由于不能实时更新导致机器人对话内容不够真实和准确,从而不被用户广泛接受和使用。
目前市场上主流的交互式机器人主要采用一种基于信息检索的技术,通过相似度匹配大量的对话数据库来提取回答,与人进行交互。但是,由于每个交互式机器人都使用单一且静态的语料库,存在回答相对单一,信息不能实时更新的缺陷,正成为人们日常诟病或者吐槽的理由。针对此问题,部分交互式机器人通过记录与用户的日常对话数据,并上传到云服务器重新训练模型,然后再下载到本地的方式来解决语料不能实时更新的问题。但是这种方式存在泄漏用户隐私的问题,不能有效保护用户个人信息,且模型训练效果不佳。
发明内容
本申请实施例提供了一种交互式机器人的语言模型协作学习方法、系统及终端,以解决现有技术中交互式机器人的语言模型应用中存在泄漏用户隐私,不能有效保护用户个人信息,且模型训练效果不佳的问题。
本申请实施例的第一方面提供了一种交互式机器人的语言模型协作学习方法,应用于交互式机器人的语言模型协作学习系统中,所述语言模型协作学习系统包括:联合学习算法模块,与所述联合学习算法模块连接的模型数据库引擎模块,和分别与所述联合学习算法模块及所述模型数据库引擎模块连接的模型问答模块,所述语言模型协作学习方法包括:
通过所述模型问答模块发送第一联合学习请求至同一网络中连接的至少一个机器人;
并通过所述模型问答模块获取所述至少一个机器人中第一机器人基于所述第一联合学习请求发送的语言交互模型参数;
通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型;
通过所述模型数据库引擎模块将更新后的所述本地语言交互模型存储至模型数据库。
本申请实施例的第二方面提供了一种交互式机器人的语言模型协作学习系统,所述语言模型协作学习系统包括:联合学习算法模块,与所述联合学习算法模块连接的模型数据库引擎模块,和分别与所述联合学习算法模块及所述模型数据库引擎模块连接的模型问答模块,所述语言模型协作学习系统还包括:
请求模块,用于通过所述模型问答模块发送第一联合学习请求至同一网络中连接的至少一个机器人;
获取模块,用于并通过所述模型问答模块获取所述至少一个机器人中第一机器人基于所述第一联合学习请求发送的语言交互模型参数;
融合模块,用于通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型;
存储模块,用于通过所述模型数据库引擎模块将更新后的所述本地语言交互模型存储至模型数据库。
本申请实施例的第三方面提供了一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述方法的步骤。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述方法的步骤。
本申请的第五方面提供了一种计算机程序产品,当所述计算机程序产品在终端上运行时,使得所述终端执行上述第一方面所述方法的步骤。
由上可见,本申请实施例提供了一种交互式机器人联合协作学习机制,且更具体地说是通过耦合联合学习算法模块,模型数据库引擎模块以及模型问答模块,使得部署有该机制的交互式机器人可以联合协作学习语言模型,解决了语言模型实时更新困难的难题。且该机制赋予不同交互式机器人语言模型共享及模型融合的能力,将传统传输用户数据进行学习的机制变更为不具明文意义的模型参数来联合学习,从而避免了用户隐私数据泄漏的问题,这样单个交互式机器人接收到的情感数据将更加逼近用户,更加真实,最终联合学习到的语言模型也更具逻辑性和智能性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种交互式机器人的语言模型协作学习方法的流程图一;
图2是本申请实施例提供的机器人中联合协作学习机制的架构图;
图3是本申请实施例提供的一种交互式机器人的语言模型协作学习方法的流程图二;
图4是本申请实施例提供的机器人之间的连接网络图;
图5是本申请实施例提供的一种交互式机器人的语言模型协作学习系统的结构图;
图6是本申请实施例提供的一种终端的结构图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
具体实现中,本申请实施例中描述的终端包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话、膝上型计算机或平板计算机之类的其它便携式设备。还应当理解的是,在某些实施例中,所述设备并非便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的终端。然而,应当理解的是,终端可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其它物理用户接口设备。
终端支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、网站创建应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数码相机应用程序、数字摄影机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
可以在终端上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的一个或多个功能以及终端上显示的相应信息。这样,终端的公共物理架构(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
应理解,本实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
参见图1,图1是本申请实施例提供的一种交互式机器人的语言模型协作学习方法的流程图一。具体地,该如图1所示的一种交互式机器人的语言模型协作学习方法,应用于交互式机器人的语言模型协作学习系统中,结合图2所示,所述语言模型协作学习系统包括:联合学习算法模块,与所述联合学习算法模块连接的模型数据库引擎模块,和分别与所述联合学习算法模块及所述模型数据库引擎模块连接的模型问答模块。
其中,该联合学习算法模块具体用于实现语言交互模型的建立、更新、修改、删除等操作,尤其地,可以实现不同语言交互模型之间的融合;该模型数据库引擎模块用于对模型数据库的建立、对模型数据库中数据的增删改查等操作;模型问答模块用于实现不同机器人之间或者不同的具备语言交互功能的终端之间进行模型的交换、传递、共享等交互操作。
该交互式机器人的语言模型协作学习方法包括以下步骤:
步骤101,通过所述模型问答模块发送第一联合学习请求至同一网络中连接的至少一个机器人。
该至少一个机器人为同样具备语言交互功能的机器人终端,例如为具备对话功能的智能音箱、聊天机器人等等。
该步骤的触发,可以是基于用户所输入指令进行的触发,或者是设置周期时间,在设定时间节点到达时进行的触发,或者是在首次使用时进行的自动触发。
其中,同一网络中连接的至少一个机器人之间的连接可以是无线网络连接,例如同一个蓝牙网络中的连接,或者是通过云端网络系统进行的连接,或者是有线网络进行的连接。
其中,该第一联合学习请求可以是向连接的至少一个机器人中某一个或某几个机器人进行的发送或者是对连接的至少一个机器人中所有机器人进行的发送。
步骤102,并通过所述模型问答模块获取所述至少一个机器人中第一机器人基于所述第一联合学习请求发送的语言交互模型参数。
这里,语言交互模型参数为第一机器人本地的语言交互模型中的参数。语言交互模型可以用于指导机器人与用户间进行人机对话,实现机器人的人工智能。该第一机器人为前述至少一个机器人中的一个。
该语言交互模型参数可以为连接的至少一个机器人中被发送有第一联合学习请求的特定机器人发送而来,或者是由该特定机器人所指定的某一机器人发送而来。
步骤103,通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型。
具体地,该本地语言交互模型具体是存储于作为该步骤执行主体的机器人的本地的语言交互模型。
具体地,语言交互模型参数可以包括:权重参数、偏置参数等。这里,本申请实施例中前述语言交互模型参数具体包括:语言交互模型中不同网络层所对应的权重参数;
对应地,作为一可选的实施方式,所述通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型,包括:
通过所述联合学习算法模块,将所述第一机器人发送的语言交互模型参数及所述本地语言交互模型中对应网络层的权重参数加权求和,得到目标权重参数;将所述目标权重参数更新为所述本地语言交互模型中对应网络层的权重参数。
具体地,在将第一机器人发送的语言交互模型参数及所述本地语言交互模型中对应网络层的权重参数加权求和时,不同网络层中所对应的权重参数的加权值取值区间介于0至1之间。
以语言交互模型中第一网络层为例,第一机器人发送的语言交互模型参数中与第一网络层对应的第一权重参数可以赋予加权值0.5,对该步骤103执行主体机器人的本地语言交互模型中第一网络层的第二权重参数赋予加权值0.5,然后第一权重参数乘以0.5的值与第二权重参数乘以0.5的值求和,得到第一网络层对应的目标权重参数。其他网络层同理。得到语言交互模型中不同网络层所对应的目标权重参数,将该目标权重参数更新为所述本地语言交互模型中对应网络层的权重参数,实现第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数的融合。
这里,需要对从外部获取的语言交互模型与本地语言交互模型进行模型数据融合,通过连接的不同机器人之间的语言交互模型参数的及时获取及融合实现对机器人本地模型的及时有效的更新。且该过程,实现联机的机器人之间的联合学习,实现了分布式的机器学习,通过模型之间的交互及融合,能保障大数据交换时的信息安全、保护终端数据和个人数据隐私,更好地提升机器人的智能化语言交互,提升用户体验。
其中,作为一可选的实施方式,该通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型之前,还包括:
获取与用户之间的目标交互数据;基于所述语言交互数据,通过所述联合学习算法模块对所述本地语言交互模型进行交互训练;通过所述模型数据库引擎模块将交互训练后的所述本地语言交互模型存储至所述模型数据库中。。
具体地,该过程中,通过联合学习算法模块基于与用户之间的交互数据进行学习,实现新机器人的本地语言交互模型在与用户语言交互中进行模型的训练完善过程。
其中,结合图2所示,所述联合学习算法模块、所述模型数据库引擎模块及所述模型问答模块位于分布式智能层。
该分布式智能层主要是设置于不同的机器人中,用于实现机器人的人工智能作用,实现数据处理、分析及交互等功能。
具体地,其中,该语言模型协作学习系统中还包括与所述分布式智能层连接的语言建模层。该语言建模层主要包含两个功能:
第一,负责将单个机器人接收到的语言数据进行有效数据提取,适当过滤和清洗,然后发送给分布式智能层进行语言模型的学习和更新。
第二,响应用户的语言请求,负责发送分布式智能层解析的应答语句给用户。
其中,可选地,该获取与用户之间的目标交互数据,包括:
通过所述语言建模层,获取与用户之间的语言交互数据,并对所述语言交互数据进行预处理,从所述语言交互数据中提取出所述目标交互数据。
该目标交互数据具体为从机器人与用户之间的语言交互数据中进行的获取;该预处理具体可以是对与用户的语言交互数据进行有效数据的识别、筛选、适当过滤和清洗,得到该目标交互数据。其中,该语言交互数据及目标交互数据具体可以是语音、文字、图片等能够传递语言信息的交互数据。
本机制的设计主要包括两个层次,分布式智能层和语言建模层。
其中分布式智能层包含联合学习算法模块、所述模型数据库引擎模块及所述模型问答模块。三个模块相互之间可以建立互操作关系,联合学习算法模块可以通过局部节点(即本地机器人)学习来获取本地模型,然后通过模型问答模块从周围可访问节点(连接的其他机器人)上请求模型并和本地节点的模型进行融合,从而不断的迭代更新局部节点的模型。本地模型每次迭代的记录,都会通过模型数据库引擎进行模型的追踪,模型版本的管理。
可选地,作为另一具体的实施方式,该通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型之前,还包括:
通过所述模型问答模块发送第三联合学习请求至所述至少一个机器人中的第三机器人;
并通过所述模型问答模块获取所述第三机器人基于所述第三联合学习请求发送的语言交互模型参数;
将所述第三机器人发送的语言交互模型参数应用至所述本地语言交互模型中;
通过所述模型数据库引擎模块将所述本地语言交互模型存储至所述模型数据库中。
这里,语言交互模型参数为第三机器人本地的语言交互模型中的参数。其中,前述的同一网络中连接的至少一个机器人中的语言交互模型为相同模型。
该过程中,直接将外部连接的机器人所共享过来的语言交互模型参数赋予至本地语言交互模型中。其中,当发送该第三机器人为大于一个时,将最早获取到的一个第三机器人的语言交互模型参数更新为所述本地语言交互模型的模型参数。
在具体应用过程中,可以是,当某个交互式机器人新加入互联共享的机器人群体中时,可以利用自身的模型问答模块,从所在的网络中请求语言交互模型参数,在本地语言交互模型中进行模型参数的直接应用。从而避免了冷启动时,语言模型不具备决策能力的限制,提升用户体验。
步骤104,通过所述模型数据库引擎模块将更新后的所述本地语言交互模型存储至模型数据库。
在本地模型数据库与外部获取的模型数据库进行融合之后,将更新后的本地模型数据库进行有效存储,以与用户之间实现有效合理的智能交互。
本申请实施例提供了一种交互式机器人联合协作学习机制,且更具体地说是通过耦合联合学习算法模块,模型数据库引擎模块以及模型问答模块,使得部署有该机制的交互式机器人可以联合协作学习语言模型,解决了语言模型实时更新困难的难题。且该机制赋予不同交互式机器人语言模型共享及模型融合的能力,将传统传输用户数据进行学习的机制变更为不具明文意义的模型参数来联合学习,从而避免了用户隐私数据泄漏的问题,这样单个交互式机器人接收到的情感数据将更加逼近用户,更加真实,最终联合学习到的语言模型也更具逻辑性和智能性。
本申请实施例中还提供了一种交互式机器人的语言模型协作学习方法的不同实施方式。
参见图3,图3是本申请实施例提供的一种交互式机器人的语言模型协作学习方法的流程图二。如图3所示,一种交互式机器人的语言模型协作学习方法,该方法包括以下步骤:
步骤301,通过所述模型问答模块发送第一联合学习请求至同一网络中连接的至少一个机器人。
该步骤的实施方式与前述实施例中的步骤101的实施方式相同,此处不再赘述。
步骤302,并通过所述模型问答模块获取所述至少一个机器人中第一机器人基于所述第一联合学习请求发送的语言交互模型参数。
该步骤的实施方式与前述实施例中的步骤102的实施方式相同,此处不再赘述。
步骤303,通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型。
该步骤的实施方式与前述实施例中的步骤103的实施方式相同,此处不再赘述。
步骤304,通过所述模型数据库引擎模块将更新后的所述本地语言交互模型存储至模型数据库。
该步骤的实施方式与前述实施例中的步骤104的实施方式相同。
且,更进一步地,该通过所述模型数据库引擎模块将更新后的所述本地语言交互模型存储至模型数据库,可选为包括:
记录更新后的所述本地语言交互模型的更新时间,生成时间戳信息;
通过所述模型数据库引擎模块,将更新后的所述本地语言交互模型及所述时间戳信息关联存储至所述模型数据库。
该过程中,对本地语言交互模型的更新时间进行记录并与更新后的本地语言交互模型进行关联存储,以标记不同的本地语言交互模型的更新版本。
步骤305,通过所述模型问答模块获取所述至少一个机器人中第二机器人发送的第二联合学习请求。
更进一步地,同样地,外部机器人可以从本地机器人处来获取本地语言交互模型的模型参数,以实现本地机器人将自身存储的本地语言交互模型的模型参数与其他机器人之间进行数据共享。
步骤306,基于所述第二联合学习请求,通过所述模型数据库引擎模块从所述模型数据库中获取目标版本的所述本地语言交互模型。
其中,所述目标版本的所述本地语言交互模型对应于距离当前时间最近的时间戳信息。
步骤307,通过所述模型问答模块将所述目标版本的所述本地语言交互模型的模型参数发送至所述第二机器人。
该过程中,实现本地机器人将最新版本的本地语言交互模型的模型参数分享给其他机器人,以使其他机器人可以完成自身的模型参数融合及模型更新过程。
下面,结合具体例子,对前述实施例中的实现过程进行说明。结合图4所示,该图主要用来解释联合学习的工作机制。图4中共有5个分布式的交互式机器人,每个机器人都有自己的模型以及模型参数数据,且可以和周围的机器人建立通信连接。实线代表他们之间具有连接,当前正在进行端到端的通信,虚线表示彼此之间暂时没有通信。
以图中R1为例,本申请中所提出的协调机制使得R1,R2,R3,R4,R5正处于联合协作学习阶段。R1通过语言问答模块,向周围的4个机器人请求语言模型。
当其他4个机器人收到请求后,根据模型数据库中存储的模型时间戳信息,会发出当前最新的模型给R1,然后R1将收集到的语言模型参数同本地的模型参数进行融合,融合完毕再进行本地模型的更新,同时将当前更新的模型记载到模型数据库中,进行模型的管理,版本追踪等,以方便将最新版本模型的模型参数共享给其他的机器人。上述联合协作学习机制能够稳定的让多个交互式机器人之间互相共享语言知识模型参数,最终达到联合学习语言模型的目的。
参见图5,图5是本申请实施例提供的交互式机器人的语言模型协作学习系统的结构图,为了便于说明,仅示出了与本申请实施例相关的部分。
所述交互式机器人的语言模型协作学习系统包括:联合学习算法模块,与所述联合学习算法模块连接的模型数据库引擎模块,和分别与所述联合学习算法模块及所述模型数据库引擎模块连接的模型问答模块。
进一步地,该交互式机器人的语言模型协作学习系统500进一步还包括:
请求模块501,用于通过所述模型问答模块发送第一联合学习请求至同一网络中连接的至少一个机器人;
获取模块502,用于并通过所述模型问答模块获取所述至少一个机器人中第一机器人基于所述第一联合学习请求发送的语言交互模型参数;
融合模块503,用于通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型;
存储模块504,用于通过所述模型数据库引擎模块将更新后的所述本地语言交互模型存储至模型数据库。
其中,所述语言交互模型参数包括:语言交互模型中不同网络层所对应的权重参数;
对应的,所述融合模块503,具体用于:
通过所述联合学习算法模块,将所述第一机器人发送的语言交互模型参数及所述本地语言交互模型中对应网络层的权重参数加权求和,得到目标权重参数;
将所述目标权重参数更新为所述本地语言交互模型中对应网络层的权重参数。
所述存储模块504具体用于:
记录更新后的所述本地语言交互模型的更新时间,生成时间戳信息;
通过所述模型数据库引擎模块,将更新后的所述本地语言交互模型及所述时间戳信息关联存储至所述模型数据库。
进一步地,该系统还包括:
请求获取模块,用于通过所述模型问答模块获取所述至少一个机器人中第二机器人发送的第二联合学习请求;
第一模型获取模块,用于基于所述第二联合学习请求,通过所述模型数据库引擎模块从所述模型数据库中获取目标版本的所述本地语言交互模型;其中,所述目标版本的所述本地语言交互模型对应于距离当前时间最近的时间戳信息;
第一发送模块,用于通过所述模型问答模块将所述目标版本的所述本地语言交互模型的模型参数发送至所述第二机器人。
其中,该系统还包括:
语言数据获取模块,用于获取与用户之间的目标交互数据;
学习模块,用于基于所述语言交互数据,通过所述联合学习算法模块对所述本地语言交互模型进行交互训练;
第一模型存储模块,用于通过所述模型数据库引擎模块将交互训练后的所述本地语言交互模型存储至所述模型数据库中。
其中,所述联合学习算法模块、所述模型数据库引擎模块及所述模型问答模块位于分布式智能层,所述语言模型协作学习系统中还包括与所述分布式智能层连接的语言建模层;所述语言数据获取模块,具体用于:
通过所述语言建模层,获取与用户之间的语言交互数据,并对所述语言交互数据进行预处理,从所述语言交互数据中提取出所述目标交互数据。
其中,该模型还包括:
第二发送模块,用于通过所述模型问答模块发送第三联合学习请求至所述至少一个机器人中的第三机器人;
第二模型获取模块,用于并通过所述模型问答模块获取所述第三机器人基于所述第三联合学习请求发送的语言交互模型参数;
确定模块,用于将所述第三机器人发送的语言交互模型参数应用至所述本地语言交互模型中;
第二模型存储模块,用于通过所述模型数据库引擎模块将所述本地语言交互模型存储至所述模型数据库中。
本申请实施例提供的交互式机器人的语言模型协作学习系统能够实现上述交互式机器人的语言模型协作学习方法的实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
图6是本申请实施例提供的一种终端的结构图。如该图6所示,该实施例的终端6包括:至少一个处理器60(图6中仅示出一个)、存储器61以及存储在所述存储器61中并可在所述至少一个处理器60上运行的计算机程序62,所述处理器60执行所述计算机程序62时实现上述任意各个方法实施例中的步骤。
所述终端6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端6可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端6的示例,并不构成对终端6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端还可以包括输入输出设备、网络接入设备、总线等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述终端6的内部存储单元,例如终端6的硬盘或内存。所述存储器61也可以是所述终端6的外部存储设备,例如所述终端6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述终端6的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述终端所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的终端和方法,可以通过其它的方式实现。例如,以上所描述的终端实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序产品来实现,当计算机程序产品在终端上运行时,使得所述终端执行时实现可实现上述各个方法实施例中的步骤。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种交互式机器人的语言模型协作学习方法,应用于交互式机器人的语言模型协作学习系统中,其特征在于,所述语言模型协作学习系统包括:联合学习算法模块,与所述联合学习算法模块连接的模型数据库引擎模块,和分别与所述联合学习算法模块及所述模型数据库引擎模块连接的模型问答模块,所述语言模型协作学习方法包括:
通过所述模型问答模块发送第一联合学习请求至同一网络中连接的至少一个机器人;
并通过所述模型问答模块获取所述至少一个机器人中第一机器人基于所述第一联合学习请求发送的语言交互模型参数;
通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型;
通过所述模型数据库引擎模块将更新后的所述本地语言交互模型存储至模型数据库。
2.根据权利要求1所述的语言模型协作学习方法,其特征在于,
所述语言交互模型参数包括:语言交互模型中不同网络层所对应的权重参数;
所述通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型,包括:
通过所述联合学习算法模块,将所述第一机器人发送的语言交互模型参数及所述本地语言交互模型中对应网络层的权重参数加权求和,得到目标权重参数;
将所述目标权重参数更新为所述本地语言交互模型中对应网络层的权重参数。
3.根据权利要求1所述的语言模型协作学习方法,其特征在于,所述通过所述模型数据库引擎模块将更新后的所述本地语言交互模型存储至模型数据库,包括:
记录更新后的所述本地语言交互模型的更新时间,生成时间戳信息;
通过所述模型数据库引擎模块,将更新后的所述本地语言交互模型及所述时间戳信息关联存储至所述模型数据库。
4.根据权利要求3所述的语言模型协作学习方法,其特征在于,还包括:
通过所述模型问答模块获取所述至少一个机器人中第二机器人发送的第二联合学习请求;
基于所述第二联合学习请求,通过所述模型数据库引擎模块从所述模型数据库中获取目标版本的所述本地语言交互模型;其中,所述目标版本的所述本地语言交互模型对应于距离当前时间最近的时间戳信息;
通过所述模型问答模块将所述目标版本的所述本地语言交互模型的模型参数发送至所述第二机器人。
5.根据权利要求1所述的语言模型协作学习方法,其特征在于,所述通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型之前,还包括:
获取与用户之间的目标交互数据;
基于所述语言交互数据,通过所述联合学习算法模块对所述本地语言交互模型进行交互训练;
通过所述模型数据库引擎模块将交互训练后的所述本地语言交互模型存储至所述模型数据库中。
6.根据权利要求5所述的语言模型协作学习方法,其特征在于,所述联合学习算法模块、所述模型数据库引擎模块及所述模型问答模块位于分布式智能层,所述语言模型协作学习系统中还包括与所述分布式智能层连接的语言建模层;所述获取与用户之间的目标交互数据,包括:
通过所述语言建模层,获取与用户之间的语言交互数据,并对所述语言交互数据进行预处理,从所述语言交互数据中提取出所述目标交互数据。
7.根据权利要求1所述的语言模型协作学习方法,其特征在于,所述通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型之前,还包括:
通过所述模型问答模块发送第三联合学习请求至所述至少一个机器人中的第三机器人;
并通过所述模型问答模块获取所述第三机器人基于所述第三联合学习请求发送的语言交互模型参数;
将所述第三机器人发送的语言交互模型参数应用至所述本地语言交互模型中;
通过所述模型数据库引擎模块将所述本地语言交互模型存储至所述模型数据库中。
8.一种交互式机器人的语言模型协作学习系统,其特征在于,所述语言模型协作学习系统包括:联合学习算法模块,与所述联合学习算法模块连接的模型数据库引擎模块,和分别与所述联合学习算法模块及所述模型数据库引擎模块连接的模型问答模块,所述语言模型协作学习系统还包括:
请求模块,用于通过所述模型问答模块发送第一联合学习请求至同一网络中连接的至少一个机器人;
获取模块,用于并通过所述模型问答模块获取所述至少一个机器人中第一机器人基于所述第一联合学习请求发送的语言交互模型参数;
融合模块,用于通过所述联合学习算法模块将所述第一机器人发送的语言交互模型参数与本地语言交互模型的模型参数进行融合,得到更新后的所述本地语言交互模型;
存储模块,用于通过所述模型数据库引擎模块将更新后的所述本地语言交互模型存储至模型数据库。
9.一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010155610.4A CN113377931A (zh) | 2020-03-09 | 2020-03-09 | 一种交互式机器人的语言模型协作学习方法、系统及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010155610.4A CN113377931A (zh) | 2020-03-09 | 2020-03-09 | 一种交互式机器人的语言模型协作学习方法、系统及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113377931A true CN113377931A (zh) | 2021-09-10 |
Family
ID=77569394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010155610.4A Pending CN113377931A (zh) | 2020-03-09 | 2020-03-09 | 一种交互式机器人的语言模型协作学习方法、系统及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113377931A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116127035A (zh) * | 2023-01-03 | 2023-05-16 | 北京百度网讯科技有限公司 | 对话方法、对话模型的训练方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108924910A (zh) * | 2018-07-25 | 2018-11-30 | Oppo广东移动通信有限公司 | Ai模型的更新方法及相关产品 |
CN109445953A (zh) * | 2018-08-30 | 2019-03-08 | 北京大学 | 一种面向大规模机器学习系统的机器学习模型训练方法 |
US20190213480A1 (en) * | 2018-01-11 | 2019-07-11 | Electronics And Telecommunications Research Institute | Personalized question-answering system and cloud server for private information protection and method of providing shared neural model thereof |
CN110263908A (zh) * | 2019-06-20 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 联邦学习模型训练方法、设备、系统及存储介质 |
CN110795477A (zh) * | 2019-09-20 | 2020-02-14 | 平安科技(深圳)有限公司 | 数据的训练方法及装置、系统 |
-
2020
- 2020-03-09 CN CN202010155610.4A patent/CN113377931A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190213480A1 (en) * | 2018-01-11 | 2019-07-11 | Electronics And Telecommunications Research Institute | Personalized question-answering system and cloud server for private information protection and method of providing shared neural model thereof |
CN108924910A (zh) * | 2018-07-25 | 2018-11-30 | Oppo广东移动通信有限公司 | Ai模型的更新方法及相关产品 |
CN109445953A (zh) * | 2018-08-30 | 2019-03-08 | 北京大学 | 一种面向大规模机器学习系统的机器学习模型训练方法 |
CN110263908A (zh) * | 2019-06-20 | 2019-09-20 | 深圳前海微众银行股份有限公司 | 联邦学习模型训练方法、设备、系统及存储介质 |
CN110795477A (zh) * | 2019-09-20 | 2020-02-14 | 平安科技(深圳)有限公司 | 数据的训练方法及装置、系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116127035A (zh) * | 2023-01-03 | 2023-05-16 | 北京百度网讯科技有限公司 | 对话方法、对话模型的训练方法及装置 |
CN116127035B (zh) * | 2023-01-03 | 2023-12-08 | 北京百度网讯科技有限公司 | 对话方法、对话模型的训练方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7086993B2 (ja) | コミュニケーション用談話ツリーの使用による修辞学的分析の可能化 | |
US10521505B2 (en) | Cognitive mediator for generating blockchain smart contracts | |
US10324591B2 (en) | System for creating and retrieving contextual links between user interface objects | |
JP7121052B2 (ja) | イメージデータに少なくとも部分的に基づく、アクションを実行するためのエージェントの決定 | |
US9305050B2 (en) | Aggregator, filter and delivery system for online context dependent interaction, systems and methods | |
CN105283839A (zh) | 用以将命令显现在生产力应用用户界面内的个性化社区模型 | |
CN104462056B (zh) | 用于呈现基于知识的信息的方法和信息操纵系统 | |
CN110489101A (zh) | 接口模拟方法、系统、介质和电子设备 | |
CN106991179A (zh) | 数据删除方法、装置及移动终端 | |
CN111858951A (zh) | 基于知识图谱的学习推荐方法及装置、终端设备 | |
US20210191580A1 (en) | Method and Apparatus for Displaying Application Program, Terminal Device, and Storage Medium | |
CN107368568A (zh) | 一种笔记生成的方法、装置、设备和存储介质 | |
CN111475399B (zh) | 虚拟测试方法及装置 | |
CN115022098A (zh) | 人工智能安全靶场内容推荐方法、装置及存储介质 | |
WO2024087821A1 (zh) | 信息处理方法、装置和电子设备 | |
CN113377931A (zh) | 一种交互式机器人的语言模型协作学习方法、系统及终端 | |
CN113192639A (zh) | 信息预测模型的训练方法、装置、设备及存储介质 | |
CN111651989A (zh) | 命名实体识别方法和装置、存储介质及电子装置 | |
CN111488386A (zh) | 数据查询方法和装置 | |
US20150269177A1 (en) | Method and system for determining user interest in a file | |
CN106651410A (zh) | 一种应用管理方法及装置 | |
Shin | Socio-technical design of algorithms: Fairness, accountability, and transparency | |
CN111612280B (zh) | 一种数据分析方法和装置 | |
CN108093312A (zh) | 基于弹幕技术的互动方法及系统 | |
WO2021173581A1 (en) | Automated actions in a security platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210910 |
|
RJ01 | Rejection of invention patent application after publication |