CN116186644B - 人机交互开发方法、装置、存储介质及电子设备 - Google Patents
人机交互开发方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN116186644B CN116186644B CN202310182647.XA CN202310182647A CN116186644B CN 116186644 B CN116186644 B CN 116186644B CN 202310182647 A CN202310182647 A CN 202310182647A CN 116186644 B CN116186644 B CN 116186644B
- Authority
- CN
- China
- Prior art keywords
- target
- interaction
- training
- identification information
- intention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 295
- 238000011161 development Methods 0.000 title claims abstract description 68
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000012549 training Methods 0.000 claims abstract description 327
- 238000012800 visualization Methods 0.000 claims abstract description 45
- 230000009471 action Effects 0.000 claims description 116
- 230000004044 response Effects 0.000 claims description 37
- 238000000547 structure data Methods 0.000 claims description 35
- 230000002452 interceptive effect Effects 0.000 claims description 34
- 238000004590 computer program Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000004806 packaging method and process Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/34—Graphical or visual programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开涉及一种人机交互开发方法、装置、存储介质及电子设备,方法包括:显示配置界面;响应于用户在所述配置界面中的训练数据配置操作,确定通过所述训练数据配置操作得到的目标训练数据,并将所述目标训练数据发送给服务器,所述服务器用于根据所述目标训练数据训练所述人机交互模型,得到训练结果,并将所述训练结果发送给所述可视化平台;当接收到所述训练结果后,显示所述训练结果。通过在配置页面将训练人机交互模型所需要用到的训练数据信息提示出来,以使得用户可以根据实际情况对所需的训练数据信息进行相应的配置,不仅提高了人机交互系统的开发效率和开发质量,还降低了开发成本。
Description
技术领域
本公开涉及人机交互技术领域,具体地,涉及一种人机交互开发方法、装置、存储介质及电子设备。
背景技术
相关技术中,存在多种人机交互引导框架,如ROS(Robot Operating System,机器人软件平台/机器人元操作系统)、OpenRTM(机器人系统软件平台)、MOOS(MissionOriented Operating Suite,分布式控制体系结构)、RASA(开源机器学习框架)等分布式敏捷开发系统架构,开发人员可以基于这些人机交互引导框架进行人机交互的开发。然而在将上述人机交互引导框架应用到软件领域过程中,通常要求开发人员对于这些人机交互引导框架的内部代码、内部接口有较深程度的了解,对开发人员的技术要求较高,导致软件的人机交互系统开发效率较低。另外,在开发过程中,大多数开发人员对人机交互引导框架的共性功能以及代码重用性的提炼方面比较薄弱,导致不同开发人员开发的代码质量参差不齐。
发明内容
本公开的目的是提供一种人机交互开发方法、装置、存储介质及电子设备,以解决上述技术问题。
为了实现上述目的,本公开第一方面提供一种人机交互开发方法,应用于可视化平台,所述方法包括:
显示配置界面,所述配置界面用于提示训练人机交互模型所需的训练数据信息;
响应于用户在所述配置界面中的训练数据配置操作,确定通过所述训练数据配置操作得到的目标训练数据,并将所述目标训练数据发送给服务器,所述服务器用于根据所述目标训练数据训练所述人机交互模型,得到训练结果,并将所述训练结果发送给所述可视化平台;
当接收到所述训练结果后,显示所述训练结果。
可选地,所述人机交互模型包括多个子模型,所述方法还包括:
在所述配置界面显示所述多个子模型对应的模型标识信息;
响应于所述用户对所述模型标识信息的选择操作,确定该选择操作对应的目标模型标识信息,并将所述目标模型标识信息发送给所述服务器,所述服务器用于根据所述目标模型标识信息确定待训练的目标子模型,并根据所述目标训练数据训练所述目标子模型,得到所述训练结果。
可选地,所述响应于用户在所述配置界面中的训练数据配置操作,确定通过所述训练数据配置操作得到的目标训练数据,包括:
在所述配置界面显示用于表征交互动作的多个动作标识信息、用于表征交互意图的多个意图标识信息以及用于绑定所述交互动作和所述交互意图的绑定标识;
响应于所述用户对所述动作标识信息的选择操作,确定该选择操作对应的目标交互动作;
响应于所述用户对所述意图标识信息的选择操作,确定该选择操作对应的目标交互意图;以及
响应于所述用户对所述绑定标识的点击操作,将所述目标交互动作和所述目标交互意图进行绑定,得到所述目标交互动作和所述目标交互意图之间的对应关系;
将所述目标交互动作、所述目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系确定为所述目标训练数据。
可选地,所述动作标识信息和所述意图标识信息通过如下方式确定:
根据目标软件的功能模块对所述目标软件的使用说明文档进行拆分,得到每个功能模块的使用说明文档,其中,训练后的所述人机交互模型被用于嵌入所述目标软件供用户使用;
针对每个所述功能模块的使用说明文档,进行意图和实体的提取,得到目标意图、目标实体以及所述目标意图与所述目标实体之间的对应关系,将每个所述目标意图作为一个类别,将与所述类别具有所述对应关系的所述目标实体作为类别数据,得到多类交互意图数据;
针对每类所述交互意图数据,确定所述意图标识信息,以及
针对每类所述交互意图数据,根据对应的所述目标意图和对应功能模块的使用说明文档,确定交互动作,并根据所述交互动作确定所述动作标识信息。
可选地,所述配置界面显示有训练决策信息,所述训练决策信息用于指示所述人机交互模型的训练方式,所述方法还包括:
响应于所述用户对所述训练决策信息的配置操作,确定目标训练决策信息;
将所述目标训练决策信息发送给所述服务器,所述服务器用于根据所述目标训练决策信息和所述目标训练数据训练所述人机交互模型,得到训练结果。
可选地,所述方法还包括:
保存在所述配置界面中配置的所有数据,并将所述所有数据封装为流式结构数据,在所述配置界面显示所述流式结构数据的标识信息;
响应于所述用户对所述流式结构数据的标识信息的选择操作,将对应的所述流式结构数据发送给所述服务器,以使所述服务器根据所述流式结构数据训练所述人机交互模型,得到训练结果。
本公开第二方面提供一种人机交互开发方法,应用于服务器,且所述服务器配置有人机交互模型,所述方法包括:
接收目标训练数据,所述目标训练数据是可视化平台响应于用户在配置界面中的训练数据配置操作而获取到的,所述配置界面用于提示训练所述人机交互模型所需的训练数据信息;
基于所述目标训练数据对所述人机交互模型进行训练,得到训练结果;
将所述训练结果发送给所述可视化平台,所述可视化平台用于显示所述训练结果。
本公开第三方面提供一种人机交互开发装置,应用于可视化平台,包括:
第一显示模块,用于显示配置界面,所述配置界面用于提示训练人机交互模型所需的训练数据信息;
第一发送模块,用于响应于用户在所述配置界面中的训练数据配置操作,确定通过所述训练数据配置操作得到的目标训练数据,并将所述目标训练数据发送给服务器,所述服务器用于根据所述目标训练数据训练所述人机交互模型,得到训练结果,并将所述训练结果发送给所述可视化平台;
第二显示模块,用于当接收到所述训练结果后,显示所述训练结果。
本公开第四方面提供一种人机交互开发装置,应用于服务器,且所述服务器配置有人机交互模型,包括:
接收模块,用于接收目标训练数据,所述目标训练数据是可视化平台响应于用户在配置界面中的训练数据配置操作而获取到的,所述配置界面用于提示训练所述人机交互模型所需的训练数据信息;
训练模块,用于基于所述目标训练数据对所述人机交互模型进行训练,得到训练结果;
第二发送模块,用于将所述训练结果发送给可视化平台,所述可视化平台用于显示所述训练结果。
本公开第五方面提供一种非临时性计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面或第二方面所述方法的步骤。
本公开第六方面提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现第一方面或第二方面中所述方法的步骤。
通过上述技术方案,可以在可视化配置页面将训练人机交互模型所需要用到的训练数据信息提示出来,以使得用户在开发人机交互系统时,可以根据实际情况对所需的训练数据信息进行相应的配置,不仅提高了人机交互系统的开发效率和开发质量,还降低了开发成本。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1是根据本公开一示例性实施例示出的一种人机交互开发方法的流程图;
图2是根据本公开一示例性实施例示出的一种目标训练数据的配置框图;
图3是根据本公开一示例性实施例示出的另一种目标训练数据的配置框图;
图4是根据本公开另一示例性实施例示出的一种人机交互开发方法的流程图;
图5是根据本公开一示例性实施例示出的一种人机交互开发装置的框图;
图6是根据本公开另一示例性实施例示出的一种人机交互开发装置的框图;
图7是根据本公开一示例性实施例示出的一种电子设备的框图;
图8是根据本公开一示例性实施例示出的另一种电子设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
首先,对本公开的应用场景进行说明。相关技术中,存在多种人机交互引导框架,如ROS、OpenRTM、MOOS、RASA等分布式敏捷开发系统架构,开发人员可以基于这些人机交互引导框架进行人机交互的开发。然而在将上述人机交互引导框架应用到软件领域过程中,通常要求开发人员对于这些人机交互引导框架的内部代码、内部接口有较深程度的了解,对开发人员的技术要求较高,导致软件的人机交互系统开发效率较低。另外,在开发过程中,大多数开发人员对人机交互引导框架的共性功能以及代码重用性的提炼方面比较薄弱,导致不同开发人员开发的代码质量参差不齐。
有鉴于此,本公开实施例提供一种人机交互开发方法、装置、存储介质及电子设备,通过在配置页面将训练人机交互模型所需要用到的训练数据信息提示出来,以使得用户可以根据实际情况对所需的训练数据信息进行相应的配置,不仅提高了人机交互系统的开发效率和开发质量,还降低了开发成本。
以下结合附图,对本公开实施例进行进一步解释说明。
图1是根据本公开一示例性实施例示出的一种人机交互开发方法的流程图,参照图1,人机交互开发方法可以包括以下步骤:
S101,显示配置界面,所述配置界面用于提示训练人机交互模型所需的训练数据信息。
S102,响应于用户在所述配置界面中的训练数据配置操作,确定通过所述训练数据配置操作得到的目标训练数据,并将所述目标训练数据发送给服务器,所述服务器用于根据所述目标训练数据训练所述人机交互模型,得到训练结果,并将所述训练结果发送给所述可视化平台。
在可能的实施方式中,所述响应于用户在所述配置界面中的训练数据配置操作,确定通过所述训练数据配置操作得到的目标训练数据,可以包括:
在所述配置界面显示用于表征交互动作的多个动作标识信息、用于表征交互意图的多个意图标识信息以及用于绑定所述交互动作和所述交互意图的绑定标识;响应于所述用户对所述动作标识信息的选择操作,确定该选择操作对应的目标交互动作;响应于所述用户对所述意图标识信息的选择操作,确定该选择操作对应的目标交互意图;以及响应于所述用户对所述绑定标识的点击操作,将所述目标交互动作和所述目标交互意图进行绑定,得到所述目标交互动作和所述目标交互意图之间的对应关系;将所述目标交互动作、所述目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系确定为所述目标训练数据。
应当理解的是,动作标识信息或/和意图标识信息可以是一个具体的标识,也可以是一个具体的名称,本公开实施例对此不作任何限制。
示意性地,如图2所示,动作标识信息和意图标识信息均通过名称来表示,其中,动作标识信息包括第一动作名称、第二动作名称、第三动作名称以及第四动作名称;意图标识信息包括第一意图名称、第二意图名称和第三意图名称。当用户需要在配置界面中配置目标训练数据时,可以根据实际需求在配置界面中选择一个动作标识信息和一个意图标识信息,当动作标识信息和意图标识信息选择完毕,通过点击绑定标识,得到目标训练数据。例如,通过选择图2中的第一动作名称和第三意图名称,并点击绑定标识来得到第一动作名称、第三意图名称以及第一动作名称和第三意图名称之间的对应关系。
另外,还应当理解的是,目标训练数据是用于训练人机交互模型的,而在人机交互模型的训练过程中,需要较多的目标训练数据。若每配置一组目标训练数据便传输至服务器,会极大地增加目标训练数据的传输次数。因此在可能的实施方式中,可以当所有的目标训练数据配置完成后,再一并发送至服务器。也就是说,当用户在配置界面中配置目标训练数据时,可以先在配置界面中选择一个动作标识信息和一个意图标识信息,当动作标识信息和意图标识信息选择完毕,通过点击绑定标识,得到一组目标训练数据;然后再重复上述的选择和绑定操作,得到多组目标训练数据,最后将所有组的目标训练数据作为最终的目标训练数据发送至服务器,以减少目标训练数据的传输次数。
另外,还应当理解的是,在配置界面中配置目标训练数据时,意图标识信息和动作标识信息的对应关系并不为唯一,可以是一个意图标识信息对应于一个动作标识信息,也可以是多个意图标识信息对应于一个动作标识信息,本公开实施例对此不作任何限制。当意图标识信息和动作标识信息的对应关系为一个意图标识信息对应于一个动作标识信息时,可以通过在配置界面中选择一个动作标识信息和一个意图标识信息,得到一组待绑定对应关系的交互动作和交互意图,然后通过点击绑定标识,得到一组目标训练数据。当意图标识信息和动作标识信息的对应关系为多个意图标识信息对应于一个动作标识信息时,可以通过在配置界面中选择一个动作标识信息和多个意图标识信息,得到一组待绑定对应关系的交互动作和交互意图,然后通过点击绑定标识,得到一组目标训练数据。
在可能的实施方式中,所述响应于用户在所述配置界面中的训练数据配置操作,确定通过所述训练数据配置操作得到的目标训练数据,还可以包括:
在所述配置页面显示交互动作配置窗、交互意图配置窗以及用于绑定交互动作和交互意图之间对应关系的绑定标识;响应于所述用户在所述交互动作配置窗中的交互动作配置操作,确定通过所述交互动作配置操作得到的目标交互动作;响应于所述用户在所述交互意图配置窗中的交互意图配置操作,确定通过所述交互意图配置操作得到的目标交互意图;响应于所述用户对所述绑定标识的点击操作,将所述目标交互动作和所述目标交互意图进行绑定,得到所述目标交互动作和所述目标交互意图之间的对应关系;将所述目标交互动作、所述目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系确定为所述目标训练数据。
示意性地,如图3所示,当用户需要在配置界面中配置目标训练数据时,可以根据实际情况分别在交互动作配置窗和交互意图配置窗中输入交互动作和交互意图,并在交互动作和交互意图输入完成后,通过点击绑定标识得到目标训练数据,并将其发送至服务器。
在可能的实施方式中,为了减少用户在配置界面需要配置的训练数据,或者能使之前配置的训练数据重复使用,可以在用户进行训练数据的配置过程中,先在配置界面显示预设的训练数据或显示上一次配置的训练数据,然后用户再根据实际情况对显示的训练数据进行修改或直接发送至服务器,以此简化用户的训练数据配置流程,提高配置效率。即,所述响应于用户在所述配置界面中的训练数据配置操作,确定通过所述训练配置操作得到的目标训练数据,还可以包括:
在所述配置界面显示预设的训练数据,响应于所述用户对所述预设的训练数据的配置操作,确定目标训练数据;或在所述配置界面显示预设训练数据及所述预设训练数据对应的修改标识信息,响应于所述用户对所述修改标识信息的选择操作,确定待配置的训练数据,响应于所述用户对所述待配置训练数据的配置操作,确定所述目标训练数据,并将所述目标训练数据发送给所述服务器。
综上,通过上述方式中的任意一种或多种方式的结合均可以实现在配置界面对目标训练数据进行配置,具体可根据实际情况进行设置,本公开实施例对此不作任何限制。
在可能的实施方式中,所述动作标识信息和所述意图标识信息通过如下方式确定:
根据目标软件的功能模块对所述目标软件的使用说明文档进行拆分,得到每个功能模块的使用说明文档,其中,训练后的所述人机交互模型被用于嵌入所述目标软件供用户使用;针对每个所述功能模块的使用说明文档,进行意图和实体的提取,得到目标意图、目标实体以及所述目标意图和所述目标实体之间的对应关系,将每个所述目标意图作为一个类别,将与所述类别具有所述对应关系的所述目标实体作为类别数据,得到多类交互意图数据;针对每类所述交互意图数据,确定所述意图标识信息,以及针对每类所述交互意图数据,根据对应的所述目标意图和对应功能模块的使用说明文档,确定交互动作,并根据所述交互动作确定所述动作标识信息。
应当理解的是,根据目标软件的功能模块对目标软件的使用说明文档进行拆分,得到每个功能模块的使用说明文档,可以人为的根据目标软件的功能模块对使用说明文档进行拆分,也可以通过训练文档拆分模型来实现根据目标软件的功能模块对使用说明文档进行拆分,本公开实施例对此不作任何限制。同理,针对每个所述功能模块的使用说明文档,进行意图和实体的提取,得到目标意图、目标实体以及所述目标意图和所述目标实体之间的对应关系,也可以采用人为或训练神经网络模型的方式来实现,本公开实施例对此不作任何限制。
S103,当接收到所述训练结果后,显示所述训练结果。
通过上述技术方案,可以在可视化配置页面将训练人机交互模型所需要用到的训练数据信息提示出来(即,将人机交互开发过程中所需要用的训练数据信息提示出来),以使得用户在开发人机交互系统时,可以根据实际情况对所需的训练数据信息进行相应的配置。相较于相关技术中基于人机交互开发框架进行人机交互系统的开发,本公开提供的技术方案并不需要开发人员对人机交互引导框架的内部代码、内部接口、共性功能和/或代码重用性有较深程度的了解,不仅提高了人机交互系统的开发效率,还保证了人机交互系统的开发质量。
应当理解的是,在人机交互模型的训练过程中,存在训练数据、训练模型以及训练方式三大训练要素,任一训练要素的改变,训练得到的结果便截然不同。而上文对训练数据的配置过程进行了说明,以下对训练模型以及训练方式的配置过程进行如下说明。
在可能的实施方式中,可以通过在配置界面显示不同的模型标识信息,以使得用户可以根据实际交互场景选择相应的人机交互模型,进而使得服务器可以根据目标训练数据训练选择的人机交互模型,得到满足要求的人机交互模型。即,根据本公开的一个实施例,所述人机交互模型包括多个子模型,所述方法还包括:
在所述配置界面显示所述多个子模型对应的模型标识信息;响应于所述用户对所述模型标识信息的选择操作,确定该选择操作对应的目标模型标识信息,并将所述目标模型标识信息发送给所述服务器,所述服务器用于根据所述目标模型标识信息确定待训练的目标子模型,并根据所述目标训练数据训练所述目标子模型,得到所述训练结果。
示意性地,人机交互模型除了包括bert(Bidirectional EncoderRepresentation from Transformers,语言表征模型)相关的5种模型之外,还可以包括分类模型classfier以及transform模型等,且每个模型对应有一个选择控件,这些选择控件均显示在配置界面上,用户可以通过触发选择控件来实现模型的选择。
在可能的实施方式中,所述配置界面显示有训练决策信息,所述训练决策信息用于指示所述人机交互模型的训练方式,所述方法还包括:
响应于所述用户对所述训练决策信息的配置操作,确定目标训练决策信息;将所述目标训练决策信息发送给所述服务器,所述服务器用于根据所述目标训练决策信息和所述目标训练数据训练所述人机交互模型,得到训练结果。
示意性地,可以在配置界面显示迭代次数、模型精度、损失函数和/或评价指标等训练决策信息,用户通过对显示的训练决策信息进行全部或部分配置,以得到目标训练决策信息。
应当理解的是,训练决策信息可以根据实际情况进行设置,本公开实施例对此不作任何限制。
综上,通过上述方式的任意组合,可以实现对训练数据、训练模型以及训练方式的自定义配置,以得到满足实际需求的人机交互模型。
在可能的实施方式中,为了提高训练效率,可以对用户输入的训练数据进行保存,即,当后续需要用到与预先保存好的训练方案相关的事件时,能够复用该训练方案,因此,在可能的实施方式中,所述方法还可以包括:
保存在所述配置界面中配置的所有数据,并将所述所有数据封装为流式结构数据,在所述配置界面显示所述流式结构数据的标识信息;响应于所述用户对所述流式结构数据的标识信息的选择操作,将对应的所述流式结构数据发送给所述服务器,以使所述服务器根据所述流式结构数据训练所述人机交互模型,得到训练结果。
示意性地,当用户在配置界面配置好目标训练数据、目标模型标识信息、以及目标训练决策信息后,将目标训练数据、目标模型标识信息、以及目标训练决策信息封装为流式结构数据,并生成对应的流式结构数据标识信息显示在配置界面。当后续用户进行人机交互的开发时,可以通过选择流式结构数据标识信息,以将相应的目标训练数据、目标模型标识信息、以及目标训练决策信息发送给服务器,以使得服务器可以根据目标训练决策信息和目标训练数据对目标子模型进行训练,得到训练结果。
综上,通过上述技术方案,一方面可以在可视化配置页面将训练人机交互模型所需要用到的训练数据信息提示出来,以使得用户在开发人机交互系统时,可以根据实际情况对所需的训练数据信息进行相应的配置,不仅提高了人机交互系统的开发效率,还保证了人机交互系统的开发质量;另一方面,用户可以根据实际情况进行训练数据、训练策略以及训练模型的自由设置,极大的提升了人机交互系统的开发自由度。
基于同一构思,本公开实施例还提供一种人机交互开发方法,应用于服务器,且所述服务器配置有人机交互模型,参照图4,该人机交互开发方法可以包括:
步骤S401:接收目标训练数据,所述目标训练数据是可视化平台响应于用户在配置界面中的训练数据配置操作而获取到的,所述配置界面用于提示训练所述人机交互模型所需的训练数据信息。
步骤S402:基于所述目标训练数据对所述人机交互模型进行训练,得到训练结果。
步骤S403:将所述训练结果发送给所述可视化平台,所述可视化平台用于显示所述训练结果。
在可能的实施方式中,所述人机交互模型包括多个子模型,相应地,所述服务器还可以接收目标模型标识信息,然后根据所述目标模型标识信息确定待训练的目标子模型,并根据所述目标训练数据训练所述目标子模型,得到所述训练结果;其中,所述目标模型标识信息是可视化平台响应于用户在配置界面中对模型标识信息的选择操作而获取到的。
在可能的实施方式中,步骤S401可以是接收目标交互动作、目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系;其中,所述目标交互动作是可视化平台响应于用户在配置界面中对动作标识信息的选择操作而获取到的,所述目标交互意图是可视化平台响应于用户在配置界面中对交互意图标识的选择操作而获取到的,所述目标交互动作和所述目标交互意图之间的对应关系是可视化平台响应于用户在配置界面中对所述绑定标识的点击操作而获取到的。相应地,步骤S402可以是基于所述目标交互动作、所述目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系对所述人机交互模型进行训练,得到训练结果。
在可能的实施方式中,所述动作标识信息和所述意图标识信息可以通过如下方式确定:
根据目标软件的功能模块对所述目标软件的使用说明文档进行拆分,得到每个功能模块的使用说明文档,其中,训练后的所述人机交互模型被用于嵌入所述目标软件供用户使用;
针对每个所述功能模块的使用说明文档,进行意图和实体的提取,得到目标意图和目标实体,将每个所述目标意图作为一个类别,将与所述类别具有对应关系的所述目标实体作为类别数据,得到多类交互意图数据;
针对每类所述交互意图数据,确定所述意图标识信息,以及
针对每类所述交互意图数据,根据对应的所述目标意图和对应功能模块的使用说明文档,确定交互动作,并根据所述交互动作确定所述动作标识信息。
在可能的实施方式中,所述服务器还可以接收目标训练决策信息,然后根据所述目标训练决策信息和所述目标训练数据训练所述人机交互模型,得到训练结果。其中,所述目标训练决策信息是可视化平台响应于用户在配置界面中对训练决策信息的配置操作而获取到的,且所述训练决策信息用于指示所述人机交互模型的训练方式。
在可能的实施方式中,所述服务器还可以接收流式结构数据,然后根据所述流式结构数据训练所述人机交互模型,得到训练结果。其中,所述流式结构数据是可视化平台响应于用户在配置界面中对所述流式结构数据的标识信息的选择操作而获取到的,且所述流式结构数据的标识信息所对应的所述流式结构数据是由所述可视化平台响应于用户在所述配置界面中对所有数据的保存操作,将所述所有数据封装为流式结构数据而获取到的。
应当理解的是,服务器侧的相关执行过程可以参照前文中对前端显示设备的说明部分,这里不再赘述。
基于同一构思,本公开实施例还提供一种人机交互开发装置,应用于可视化平台,参照图5,该人机交互开发装置可以包括:
第一显示模块501,用于显示配置界面,所述配置界面用于提示训练人机交互模型所需的训练数据信息;
第一发送模块502,用于响应于用户在所述配置界面中的训练数据配置操作,确定通过所述训练数据配置操作得到的目标训练数据,并将所述目标训练数据发送给服务器,所述服务器用于根据所述目标训练数据训练所述人机交互模型,得到训练结果,并将所述训练结果发送给所述可视化平台;
第二显示模块503,用于当接收到所述训练结果后,显示所述训练结果。
可选地,所述人机交互模型可以包括多个子模型,所述人机交互开发装置还可以包括:
第三显示模块,用于在所述配置界面显示所述多个子模型对应的模型标识信息;
第二发送模块,用于响应于所述用户对所述模型标识信息的选择操作,确定所述选择操作对应的目标模型标识信息,并将所述目标模型标识信息发送给所述服务器,所述服务器用于根据所述目标模型标识信息确定待训练的目标子模型,并根据所述目标训练数据训练所述目标子模型,得到所述训练结果。
可选地,所述第一发送模块502还可以包括:
显示单元,用于在所述配置界面显示用于表征交互动作的多个动作标识信息、用于表征交互意图的多个意图标识信息以及用于绑定所述交互动作和所述交互意图的绑定标识;
第一确定单元,用于响应于所述用户对所述动作标识信息的选择操作,确定该选择操作对应的目标交互动作;
第二确定单元,用于响应于所述用户对所述意图标识信息的选择操作,确定该选择操作对应的目标交互意图;以及
第三确定单元,用于响应于所述用户对所述绑定标识的点击操作,将所述目标交互动作和所述目标交互意图进行绑定,得到所述目标交互动作和所述目标交互意图之间的对应关系;
第四确定单元,用于将所述目标交互动作、所述目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系确定为所述目标训练数据。
可选地,所述动作标识信息和意图标识信息是通过如下方式确定:
根据目标软件的功能模块对所述目标软件的使用说明文档进行拆分,得到每个功能模块的使用说明文档,其中,训练后的所述人机交互模型被用于嵌入所述目标软件供用户使用;
针对每个所述功能模块的使用说明文档,进行意图和实体的提取,得到目标意图和目标实体,将每个所述目标意图作为一个类别,将与所述类别具有对应关系的所述目标实体作为类别数据,得到多类交互意图数据;
针对每类所述交互意图数据,确定所述意图标识信息,以及
针对每类所述交互意图数据,根据对应的所述目标意图和对应功能模块的使用说明文档,确定交互动作,并根据所述交互动作确定所述动作标识信息。
可选地,所述配置界面显示有训练决策信息,所述训练决策信息用于指示所述人机交互模型的训练方式,所述人机交互开发装置还可以包括:
第一确定模块,用于响应于所述用户对所述训练决策信息的配置操作,确定目标训练决策信息;
第三发送模块,用于将所述目标训练决策信息发送给所述服务器,所述服务器用于根据所述目标训练决策信息和所述目标训练数据训练所述人机交互模型,得到训练结果。
可选地,所述人机交互开发装置还可以包括:
第四显示模块,用于保存在所述配置界面中配置的所有数据,并将所述所有数据封装为流式结构数据,在所述配置界面显示所述流式结构数据的标识信息;
第四发送模块,用于响应于所述用户对所述流式结构数据的标识信息的选择操作,将对应的所述流式结构数据发送给所述服务器,以使所述服务器根据所述流式结构数据训练所述人机交互模型,得到训练结果。
关于上述实施例中的人机交互开发装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
基于同一构思,本公开实施例还提供一种人机交互开发装置,应用于服务器,且所述服务器配置有人机交互模型,参照图6,该人机交互开发装置可以包括:
第一接收模块601,用于接收目标训练数据,所述目标训练数据是可视化平台响应于用户在配置界面中的训练数据配置操作而获取到的,所述配置界面用于提示训练所述人机交互模型所需的训练数据信息;
训练模块602,用于基于所述目标训练数据对所述人机交互模型进行训练,得到训练结果;
第二发送模块603,用于将所述训练结果发送给可视化平台,所述可视化平台用于显示所述训练结果。
可选地,所述人机交互模型包括多个子模型,相应地,所述人机交互开发装置还可以包括:
第二接收模块,用于接收目标模型标识信息,然后根据所述目标模型标识信息确定待训练的目标子模型,并根据所述目标训练数据训练所述目标子模型,得到所述训练结果;其中,所述目标模型标识信息是可视化平台响应于用户在配置界面中对模型标识信息的选择操作而获取到的。
可选地,所述第一接收模块601用于接收目标交互动作、目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系;其中,所述目标交互动作是可视化平台响应于用户在配置界面中对动作标识信息的选择操作而获取到的,所述目标交互意图是可视化平台响应于用户在配置界面中对交互意图标识的选择操作而获取到的,所述目标交互动作和所述目标交互意图之间的对应关系是可视化平台响应于用户在配置界面中对所述绑定标识的点击操作而获取到的。相应地,所述训练模块基于所述目标交互动作、所述目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系对所述人机交互模型进行训练,得到训练结果。
可选地,所述动作标识信息和所述意图标识信息可以通过如下方式确定:
根据目标软件的功能模块对所述目标软件的使用说明文档进行拆分,得到每个功能模块的使用说明文档,其中,训练后的所述人机交互模型被用于嵌入所述目标软件供用户使用;
针对每个所述功能模块的使用说明文档,进行意图和实体的提取,得到目标意图和目标实体,将每个所述目标意图作为一个类别,将与所述类别具有对应关系的所述目标实体作为类别数据,得到多类交互意图数据;
针对每类所述交互意图数据,确定所述意图标识信息,以及
针对每类所述交互意图数据,根据对应的所述目标意图和对应功能模块的使用说明文档,确定交互动作,并根据所述交互动作确定所述动作标识信息。
可选地,所述人机交互开发装置还可以包括:
第三接收模块,用于接收目标训练决策信息,然后根据所述目标训练决策信息和所述目标训练数据训练所述人机交互模型,得到训练结果。其中,所述目标训练决策信息是可视化平台响应于用户在配置界面中对训练决策信息的配置操作而获取到的,且所述训练决策信息用于指示所述人机交互模型的训练方式。
可选地,所述人机交互开发装置还可以包括:
第四接收模块,用于接收流式结构数据,然后根据所述流式结构数据训练所述人机交互模型,得到训练结果。其中,所述流式结构数据是可视化平台响应于用户在配置界面中对所述流式结构数据的标识信息的选择操作而获取到的,且所述流式结构数据的标识信息所对应的所述流式结构数据是由所述可视化平台响应于用户在所述配置界面中对所有数据的保存操作,将所述所有数据封装为流式结构数据而获取到的。
关于上述实施例中的人机交互开发装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图7是根据一示例性实施例示出的一种电子设备的框图。如图7所示,该电子设备700可以包括:处理器701,存储器702。该电子设备700还可以包括多媒体组件703,输入/输出(I/O)接口704,以及通信组件705中的一者或多者。
其中,处理器701用于控制该电子设备700的整体操作,以完成应用于可视化平台中一种人机交互开发方法中的全部或部分步骤。存储器702用于存储各种类型的数据以支持在该电子设备700的操作,这些数据例如可以包括用于在该电子设备700上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如联系人数据、收发的消息、图片、音频、视频等等。该存储器702可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件703可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器702或通过通信组件705发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口704为处理器701和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件705用于该电子设备700与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near Field Communication,简称NFC),2G、3G、4G、NB-IOT、eMTC、或其他5G等等,或它们中的一种或几种的组合,在此不做限定。因此相应的该通信组件705可以包括:Wi-Fi模块,蓝牙模块,NFC模块等等。
在一示例性实施例中,电子设备700可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行应用于可视化平台中一种人机交互开发方法中的步骤。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现应用于可视化平台中一种人机交互开发方法中的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器702,上述程序指令可由电子设备700的处理器701执行以完成上述任一种人机交互开发方法的步骤。
图8是根据一示例性实施例示出的一种电子设备的框图。例如,电子设备800可以被提供为一服务器。参照图8,电子设备800包括处理器822,其数量可以为一个或多个,以及存储器832,用于存储可由处理器822执行的计算机程序。存储器832中存储的计算机程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理器822可以被配置为执行该计算机程序,以执行应用于服务器中一种人机交互开发方法中的步骤。
另外,电子设备800还可以包括电源组件826和通信组件850,该电源组件826可以被配置为执行电子设备800的电源管理,该通信组件850可以被配置为实现电子设备800的通信,例如,有线或无线通信。此外,该电子设备800还可以包括输入/输出(I/O)接口858。电子设备800可以操作基于存储在存储器832的操作系统。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现应用于服务器中一种人机交互开发方法中的步骤。例如,该非临时性计算机可读存储介质可以为上述包括程序指令的存储器832,上述程序指令可由电子设备800的处理器822执行以完成应用于服务器中一种人机交互开发方法的步骤。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述任一种人机交互开发方法的代码部分。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。
Claims (10)
1.一种人机交互开发方法,其特征在于,应用于可视化平台,所述方法包括:
显示配置界面,所述配置界面用于提示训练人机交互模型所需的训练数据信息;
在所述配置界面显示用于表征交互动作的多个动作标识信息、用于表征交互意图的多个意图标识信息以及用于绑定所述交互动作和所述交互意图的绑定标识;
响应于用户对所述动作标识信息的选择操作,确定该选择操作对应的目标交互动作;
响应于所述用户对所述意图标识信息的选择操作,确定该选择操作对应的目标交互意图;以及
响应于所述用户对所述绑定标识的点击操作,将所述目标交互动作和所述目标交互意图进行绑定,得到所述目标交互动作和所述目标交互意图之间的对应关系;
将所述目标交互动作、所述目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系确定为目标训练数据,并将所述目标训练数据发送给服务器,所述服务器用于根据所述目标训练数据训练所述人机交互模型,得到训练结果,并将所述训练结果发送给所述可视化平台;
当接收到所述训练结果后,显示所述训练结果。
2.根据权利要求1所述的方法,其特征在于,所述人机交互模型包括多个子模型,所述方法还包括:
在所述配置界面显示所述多个子模型对应的模型标识信息;
响应于所述用户对所述模型标识信息的选择操作,确定该选择操作对应的目标模型标识信息,并将所述目标模型标识信息发送给所述服务器,所述服务器用于根据所述目标模型标识信息确定待训练的目标子模型,并根据所述目标训练数据训练所述目标子模型,得到所述训练结果。
3.根据权利要求1所述的方法,其特征在于,所述动作标识信息和所述意图标识信息通过如下方式确定:
根据目标软件的功能模块对所述目标软件的使用说明文档进行拆分,得到每个功能模块的使用说明文档,其中,训练后的所述人机交互模型被用于嵌入所述目标软件供用户使用;
针对每个所述功能模块的使用说明文档,进行意图和实体的提取,得到目标意图、目标实体以及所述目标意图与所述目标实体之间的对应关系,将每个所述目标意图作为一个类别,将与所述类别具有所述对应关系的所述目标实体作为类别数据,得到多类交互意图数据;
针对每类所述交互意图数据,确定所述意图标识信息,以及
针对每类所述交互意图数据,根据对应的所述目标意图和对应功能模块的使用说明文档,确定交互动作,并根据所述交互动作确定所述动作标识信息。
4.根据权利要求1所述的方法,其特征在于,所述配置界面显示有训练决策信息,所述训练决策信息用于指示所述人机交互模型的训练方式,所述方法还包括:
响应于所述用户对所述训练决策信息的配置操作,确定目标训练决策信息;
将所述目标训练决策信息发送给所述服务器,所述服务器用于根据所述目标训练决策信息和所述目标训练数据训练所述人机交互模型,得到训练结果。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述方法还包括:
保存在所述配置界面中配置的所有数据,并将所述所有数据封装为流式结构数据,在所述配置界面显示所述流式结构数据的标识信息;
响应于所述用户对所述流式结构数据的标识信息的选择操作,将对应的所述流式结构数据发送给所述服务器,以使所述服务器根据所述流式结构数据训练所述人机交互模型,得到训练结果。
6.一种人机交互开发方法,其特征在于,应用于服务器,且所述服务器配置有人机交互模型,所述方法包括:
接收目标训练数据,所述目标训练数据根据目标交互动作、目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系确定,所述目标交互动作根据用户对可视化平台中、配置界面显示的用于表征交互动作的多个动作标识信息的选择操作确定,所述目标交互意图根据用户对所述配置界面显示的用于表征交互意图的多个意图标识信息的选择操作确定,所述目标交互动作和所述目标交互意图之间的对应关系根据所述目标交互动作、所述目标交互意图以及用户对所述配置界面中绑定标识的点击操作确定,所述配置界面用于提示训练所述人机交互模型所需的训练数据信息;
基于所述目标训练数据对所述人机交互模型进行训练,得到训练结果;
将所述训练结果发送给所述可视化平台,所述可视化平台用于显示所述训练结果。
7.一种人机交互开发装置,其特征在于,应用于可视化平台,包括:
第一显示模块,用于显示配置界面,所述配置界面用于提示训练人机交互模型所需的训练数据信息;
显示单元,用于在所述配置界面显示用于表征交互动作的多个动作标识信息、用于表征交互意图的多个意图标识信息以及用于绑定所述交互动作和所述交互意图的绑定标识;
第一确定单元,用于响应于用户对所述动作标识信息的选择操作,确定该选择操作对应的目标交互动作;
第二确定单元,用于响应于所述用户对所述意图标识信息的选择操作,确定该选择操作对应的目标交互意图;以及
第三确定单元,用于响应于所述用户对所述绑定标识的点击操作,将所述目标交互动作和所述目标交互意图进行绑定,得到所述目标交互动作和所述目标交互意图之间的对应关系;
第四确定单元,用于将所述目标交互动作、所述目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系确定为目标训练数据,并将所述目标训练数据发送给服务器,所述服务器用于根据所述目标训练数据训练所述人机交互模型,得到训练结果,并将所述训练结果发送给所述可视化平台;
第二显示模块,用于当接收到所述训练结果后,显示所述训练结果。
8.一种人机交互开发装置,其特征在于,应用于服务器,且所述服务器配置有人机交互模型,包括:
第一接收模块,用于接收目标训练数据,所述目标训练数据根据目标交互动作、目标交互意图以及所述目标交互动作和所述目标交互意图之间的对应关系确定,所述目标交互动作根据用户对可视化平台中、配置界面显示的用于表征交互动作的多个动作标识信息的选择操作确定,所述目标交互意图根据用户对所述配置界面显示的用于表征交互意图的多个意图标识信息的选择操作确定,所述目标交互动作和所述目标交互意图之间的对应关系根据所述目标交互动作、所述目标交互意图以及用户对所述配置界面中绑定标识的点击操作确定,所述配置界面用于提示训练所述人机交互模型所需的训练数据信息;
训练模块,用于基于所述目标训练数据对所述人机交互模型进行训练,得到训练结果;
第五发送模块,用于将所述训练结果发送给可视化平台,所述可视化平台用于显示所述训练结果。
9.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-6中任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现权利要求1-6中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310182647.XA CN116186644B (zh) | 2023-02-17 | 2023-02-17 | 人机交互开发方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310182647.XA CN116186644B (zh) | 2023-02-17 | 2023-02-17 | 人机交互开发方法、装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116186644A CN116186644A (zh) | 2023-05-30 |
CN116186644B true CN116186644B (zh) | 2024-04-19 |
Family
ID=86442072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310182647.XA Active CN116186644B (zh) | 2023-02-17 | 2023-02-17 | 人机交互开发方法、装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116186644B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390108A (zh) * | 2019-07-29 | 2019-10-29 | 中国工商银行股份有限公司 | 基于深度强化学习的任务型交互方法和系统 |
CN112579758A (zh) * | 2020-12-25 | 2021-03-30 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备、存储介质和程序产品 |
CN113836172A (zh) * | 2021-09-30 | 2021-12-24 | 深圳追一科技有限公司 | 交互方法、装置、电子设备、存储介质及计算机程序产品 |
CN114510305A (zh) * | 2022-01-20 | 2022-05-17 | 北京字节跳动网络技术有限公司 | 模型训练方法、装置、存储介质及电子设备 |
CN115116295A (zh) * | 2022-07-24 | 2022-09-27 | 上海千丘智能科技有限公司 | 关联性交互训练展示方法、系统、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270376A (zh) * | 2020-11-10 | 2021-01-26 | 北京百度网讯科技有限公司 | 模型训练方法、装置、电子设备、存储介质和开发系统 |
-
2023
- 2023-02-17 CN CN202310182647.XA patent/CN116186644B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390108A (zh) * | 2019-07-29 | 2019-10-29 | 中国工商银行股份有限公司 | 基于深度强化学习的任务型交互方法和系统 |
CN112579758A (zh) * | 2020-12-25 | 2021-03-30 | 北京百度网讯科技有限公司 | 模型训练方法、装置、设备、存储介质和程序产品 |
CN113836172A (zh) * | 2021-09-30 | 2021-12-24 | 深圳追一科技有限公司 | 交互方法、装置、电子设备、存储介质及计算机程序产品 |
CN114510305A (zh) * | 2022-01-20 | 2022-05-17 | 北京字节跳动网络技术有限公司 | 模型训练方法、装置、存储介质及电子设备 |
CN115116295A (zh) * | 2022-07-24 | 2022-09-27 | 上海千丘智能科技有限公司 | 关联性交互训练展示方法、系统、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116186644A (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108846630B (zh) | 一种资源控制系统及方法 | |
CN110928529B (zh) | 辅助算子开发的方法和系统 | |
US10318251B1 (en) | Code generation and simulation for graphical programming | |
JP2018536952A (ja) | スマートデバイスを制御するための方法および装置、ならびにコンピュータ記憶媒体 | |
US11699073B2 (en) | Network off-line model processing method, artificial intelligence processing device and related products | |
JP2022500748A (ja) | カリキュラムパッケージの開発方法及び装置、システム、デバイス並びに記憶媒体 | |
CN111159047A (zh) | 具有可视化界面的Android设备辅助调试装置及其操作方法 | |
Zhang et al. | Unirltest: universal platform-independent testing with reinforcement learning via image understanding | |
CN110322587B (zh) | 驾驶过程中的评价记录方法、装置、设备及存储介质 | |
CN116225501A (zh) | Ecu升级方法、装置及可读存储介质 | |
CN113934832A (zh) | 基于会话的交互处理方法、装置、设备、介质及程序产品 | |
CN116186644B (zh) | 人机交互开发方法、装置、存储介质及电子设备 | |
CN112860587A (zh) | Ui自动测试方法和装置 | |
CN117348854A (zh) | 基于自然语言对话生成物联网控制流程的方法及装置 | |
CN110209565A (zh) | 一种元数据模型调试方法及其装置 | |
CN110717315B (zh) | 系统数据批量修改方法、装置、存储介质及电子设备 | |
CN112348632A (zh) | 基于ai的在线交易rpa机器人的方法、装置和设备 | |
CN111767316A (zh) | 目标任务处理方法、装置及电子设备 | |
CN111209195A (zh) | 一种生成测试用例的方法及装置 | |
CN111124634A (zh) | 一种训练方法、装置及电子设备和存储介质 | |
CN107273398B (zh) | 人机接口系统和用于操作其的方法 | |
CN107391354B (zh) | 自动监测终端性能的方法及系统、存储装置 | |
Elouali et al. | A model-based approach for engineering multimodal mobile interactions | |
Poirier et al. | Interactive multimodal system characterization in the internet of things context | |
KR101965732B1 (ko) | Gui 저작도구를 이용한 모션플랫폼의 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |