CN111339853A - 一种互动方法、装置、设备和计算机存储介质 - Google Patents

一种互动方法、装置、设备和计算机存储介质 Download PDF

Info

Publication number
CN111339853A
CN111339853A CN202010093205.4A CN202010093205A CN111339853A CN 111339853 A CN111339853 A CN 111339853A CN 202010093205 A CN202010093205 A CN 202010093205A CN 111339853 A CN111339853 A CN 111339853A
Authority
CN
China
Prior art keywords
interaction
target
objects
determining
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010093205.4A
Other languages
English (en)
Inventor
张轶君
朱玉荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Wenxiang Information Technology Co ltd
Original Assignee
Beijing Wenxiang Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Wenxiang Information Technology Co ltd filed Critical Beijing Wenxiang Information Technology Co ltd
Priority to CN202010093205.4A priority Critical patent/CN111339853A/zh
Publication of CN111339853A publication Critical patent/CN111339853A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例公开了一种互动方法、装置、设备和计算机存储介质,该方法应用于对象间的互动场景中,该方法包括:获取针对目标区域的图像,图像中包括至少一个对象。对对象添加对应的标签,所述标签用于体现所述对象的特征。根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,所述目标标签是根据互动需求确定的。从所述对象集合中确定进行互动的目标对象。该方法中,通过为图像中的对象添加了对应的标签,从而,可以基于符合互动需求的目标标签,从图像的对象中确定满足目标标签的对象作为进行互动的目标对象,无需预先了解各个对象的特征即确定出符合互动需求的对象,快速找到目标对象,提高对象之间的互动效果。

Description

一种互动方法、装置、设备和计算机存储介质
技术领域
本申请涉及数据处理领域,特别是涉及一种互动方法、装置、设备和计算机存储介质。
背景技术
在一些互动场景中,具有在包括大量对象的范围内进行互动的情形。由于预先不了解这些对象的特征,导致无法实现有效互动,影响了互动效果。
举例来说,在传统课堂中,教师和学生之间的问答多采用面对面回答的方式。在实际教学过程中,由于班内的学生过多,教师无法在短时间内了解每个学生的姓名、性别等等个人相关信息,因此,教师很难对属于某些特定特征的学生进行提问,由此对教学造成不便,针对此问题需要进行改进。
发明内容
为了解决上述技术问题,本申请提供了一种互动方法、装置、设备和计算机存储介质,无需预先了解各个对象的特征即确定出符合互动需求的对象,提高了互动效果。
本申请实施例公开了如下技术方案:
一方面,本申请实施例提供了一种互动方法,所述方法应用于对象间的互动场景中,所述方法包括:
获取针对目标区域的图像,其中,所述图像中包括至少一个对象;
对所述对象添加对应的标签,所述标签用于体现所述对象的特征;
根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,其中,所述目标标签是根据互动需求确定的;
从所述对象集合中确定进行互动的目标对象。
可选的,所述方法还包括:
记录所述对象对应的互动数据。
可选的,所述根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,包括:
从所述图像的对象中确定所对应互动数据满足预设条件的待选对象;
根据所述待选对象和对应的标签,确定符合目标标签的对象集合。
可选的,所述从所述对象集合中确定进行互动的目标对象,包括:
从所述对象集合中随机确定进行互动的目标对象;
或者,基于获取的选择操作,从所述对象集合中确定进行互动的目标对象。
可选的,所述目标标签是基于获取的触发操作确定的,所述触发操作的生成方式包括如下方式中的一种或多种:
当确定满足预设的触发条件时自动生成;
基于用户的输入操作生成。
另一方面,本申请实施例提供了一种互动装置,所述装置应用于对象间的互动场景中,所述装置包括:
获取单元,用于获取针对目标区域的图像,其中,所述图像中包括至少一个对象;
添加单元,用于对所述对象添加对应的标签,所述标签用于体现所述对象的特征;
第一确定单元,用于根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,其中,所述目标标签是根据互动需求确定的;
第二确定单元,用于从所述对象集合中确定进行互动的目标对象。
可选的,所述装置还包括记录单元:
所述记录单元,用于记录所述对象对应的互动数据。
可选的,所述第一确定单元,具体用于:
从所述图像的对象中确定所对应互动数据满足预设条件的待选对象;
根据所述待选对象和对应的标签,确定符合目标标签的对象集合。
可选的,所述第二确定单元,具体用于:
从所述对象集合中随机确定进行互动的目标对象;
或者,基于获取的选择操作,从所述对象集合中确定进行互动的目标对象。
可选的,所述目标标签是基于获取的触发操作确定的,所述触发操作的生成方式包括如下方式中的一种或多种:
当确定满足预设的触发条件时自动生成;
基于用户的输入操作生成。
另一方面,本申请实施例提供了一种用于互动的设备,所述设备包括处理器以及存储器:
所述存储器用于存储计算机程序,并将所述计算机程序传输给所述处理器;
所述处理器用于根据所述计算机程序中的指令执行上述任意一项所述的互动方法。
另一方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行上述任意一项所述的互动方法。
由上述技术方案可以看出,该方法应用于对象间的互动场景中,该方法包括:获取针对目标区域的图像,图像中包括至少一个对象。对对象添加对应的标签,所述标签用于体现所述对象的特征。根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,所述目标标签是根据互动需求确定的。从所述对象集合中确定进行互动的目标对象。该方法中,通过为图像中的对象添加了对应的标签,从而,可以基于符合互动需求的目标标签,从图像的对象中确定满足目标标签的对象作为进行互动的目标对象,无需预先了解各个对象的特征即确定出符合互动需求的对象,快速找到进行互动的目标对象,提高对象之间的互动效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种互动方法流程图;
图2为本申请实施例提供的一种确定符合目标标签的对象集合的方法流程图;
图3为本申请实施例提供的一种互动装置结构图;
图4为本申请实施例提供的一种互动装置结构图;
图5为本申请实施例提供的一种互动设备结构图;
图6为本申请实施例提供的一种计算机可读存储介质示意图。
具体实施方式
下面结合附图,对本申请的实施例进行描述。
在一些互动场景中,具有在包括大量对象的范围内进行互动的情形。由于预先不了解这些对象的特征,导致无法实现有效互动,影响了互动效果。
为此,本申请实施例提供了一种互动方法,该方法应用于对象间的互动场景中,该方法无需预先了解各个对象的特征即确定出符合互动需求的对象,快速找到进行互动的目标对象,提高对象之间的互动效果。
其中,本申请实施例所提及的对象可以是各种类型的实体,例如,对象可以是指课堂中的各个学生。
首先,对本申请实施例的执行主体进行介绍。本申请提供的互动方法可以由数据处理设备来执行,如终端设备、服务器。其中,终端设备例如可以是智能手机、计算机、个人数字助理(Personal Digital Assistant,简称PDA)、平板电脑等设备。该互动方法还可以应用到服务器中,其中,服务器可以是独立的服务器,也可以是集群中的服务器。
下面对本申请实施例提供的互动方法进行介绍,参见图1,该图示出了本申请实施例提供的一种互动方法流程图,如图1所示,所述方法包括:
S101:获取针对目标区域的图像,所述图像中包括至少一个对象。
其中,目标区域可以是指对象所处的区域,例如,在课堂中,该目标区域可以是指学生(即对象)所处区域。
在本申请实施例中,可以获取针对目标区域的图像,该图像中可以包括至少一个对象。
以师生面对面教学的场景为例进行说明,可以在课堂的学生所处区域安装云台摄像机,以实时采集教室情况,并且可以采集包括教室内全部学生头部(面部)的图像。
S102:对所述对象添加对应的标签,所述标签用于体现所述对象的特征。
在本申请实施例中,可以对S101中所获取的图像中的对象进行特征分析,并添加与对象特征匹配的标签,该标签可以用于体现对象的特征。
在具体实现中,在获取到针对目标区域的图像后,可以对图像进行对象识别,以识别出图像中的各个对象。然后,可以分析图像中对象的特征,添加对象对应的标签。
其中,可以预先确定一个标签集合,例如,标签集合包括:性别(男、女)、表情(生气、悲伤、厌恶、害怕、吃惊、高兴和正常)等。从而,可以根据该标签集合中包括的标签,向图像中的各个对象添加标签。
可以理解,实际场景中,可以为图像中的一个对象添加一种类型的标签,即该对象具有一个标签。也可以向对象添加多种类型的标签,则,该对象具有对应的多个标签,每个标签对应一个标签类型。
基于前述S101中的示例,在具体实现中,在获取到包括学生面部的图像后,可以对图像进行面部识别,以识别出图像中的学生面部,提取每个学生的面部图像区域。然后,分析学生面部特征,并基于标签集合中的各种标签,向识别出的学生面部添加对应的标签,该标签可以体现学生的特征。
S103:根据图像中的对象和对应的标签,确定符合目标标签的对象集合。
其中,所述目标标签可以是根据互动需求确定的,该目标标签符合此次互动的互动需求。该目标标签可以是为图像中对象所添加标签中的一种或多种。
由此,在本申请实施例中,可以根据图像中的对象和对应的标签,确定符合目标标签的对象,组成对象集合。可以理解的是,该对象集合中的对象的标签包括目标标签。
在一种可能的实现方式中,该目标标签可以是基于所获取的触发操作确定的。其中,该触发操作用于确定目标标签。
该触发操作的生成方式可以是当服务器确定满足预设的触发条件时自动生成的,该触发条件可以是用于自动生成触发操作的条件,该触发条件可以是:当需要执行上述S103、根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合时,生成触发操作。也就是说,当服务器确定当前需要执行S103时,即自动生成触发操作。
另外,该触发操作的生成方式可以是基于用户的输入操作生成的,当获取到用户的输入操作时,可以生成该触发操作。
需要说明,本申请实施例不限定触发操作的种类,可以包括选择标签的操作、输入标签的操作等。
从而,根据该触发操作,可以确定出该触发操作对应的目标标签。例如,教师可以通过输入操作如选择标签的操作、输入标签的操作等方式,来确定出希望发言(互动)对象的目标标签。
另外,也可以由系统自动触发选择标签作为目标标签。
S104:从所述对象集合中确定进行互动的目标对象。
从而,在确定对象集合之后,可以从对象集合中确定进行互动的目标对象。
需要说明,本申请实施例不限定S104、从所述对象集合中确定进行互动的目标对象的方法,在一种可能的实现方式中,该方法可以包括:
从所述对象集合中随机确定进行互动的目标对象。
或者,基于获取的选择操作,从所述对象集合中确定进行互动的目标对象。
其中,该选择操作可以是从对象集合中选取目标对象的操作,该选择操作可以包括人为或自动发起的选择操作。例如,可以由教师从对象集合中发起选择操作,以从对象集合中选择发言的学生即进行互动的目标对象。
由上述技术方案可以看出,该方法应用于对象间的互动场景中,该方法包括:获取针对目标区域的图像,图像中包括至少一个对象。对对象添加对应的标签,所述标签用于体现所述对象的特征。根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,所述目标标签是根据互动需求确定的。从所述对象集合中确定进行互动的目标对象。该方法中,通过为图像中的对象添加了对应的标签,从而,可以基于符合互动需求的目标标签,从图像的对象中确定满足目标标签的对象作为进行互动的目标对象,无需预先了解各个对象的特征即确定出符合互动需求的对象,快速找到进行互动的目标对象,提高对象之间的互动效果。
举例来说,通过执行该方法,可以有效解决教师在不了解学生的情况下,无法提问的尴尬场景。且可以提高课堂教学的趣味性,有效带动课堂的教学氛围。以及有利于教学研究。
在一种可能的实现方式中,所述方法还包括:
记录所述对象对应的互动数据。
其中,该互动数据可以是与对象互动相关的数据,如可以是对象被选为目标对象进行互动的次数,对象最近一次被选为目标对象进行互动的时间等。
在本申请实施例中,在每次执行S101-S104之后,可以为图像中的对象记录对应的互动数据。
通过为对象记录对应的互动数据,便于后续根据对象的互动数据对对象的互动情况进行分析,以确定每个对象的互动情况。
在一种可能的实现方式中,参见图2,该图示出了本申请实施例提供的一种确定符合目标标签的对象集合的方法流程图,如图2所示,针对上述S103、根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合的方法可以包括:
S201:从所述图像的对象中确定所对应互动数据满足预设条件的待选对象。
其中,预设条件可以用于衡量对象的互动程度高低的条件,若对象的互动数据满足预设条件,可以表示该对象的互动程度较低,若对象的互动数据不满足预设条件,可以表示该对象的互动程度较高。
由此,可以从图像的对象中确定互动数据满足预设条件的对象,作为待选对象,待选对象可以是指互动程度较低的对象。
S202:根据所述待选对象和对应的标签,确定符合目标标签的对象集合。
从而,可以根据确定出的待选对象和对应的标签,确定符合目标标签的对象集合。
该方法中,通过将对象的互动数据即互动情况作为确定对象集合的一个因素,将互动程度较低的对象加入对象集合中,提高了互动程度较低对象被选为互动的目标对象的机会,便于均衡针对目标区域内每个对象的互动程度。
参见图3,该图示出了本申请实施例提供的一种互动装置结构图,如图3所示,所述装置应用于对象间的互动场景中,所述装置包括:
获取单元301,用于获取针对目标区域的图像,其中,所述图像中包括至少一个对象;
添加单元302,用于对所述对象添加对应的标签,所述标签用于体现所述对象的特征;
第一确定单元303,用于根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,其中,所述目标标签是根据互动需求确定的;
第二确定单元304,用于从所述对象集合中确定进行互动的目标对象。
在一种可能的实现方式中,参见图4,该图示出了本申请实施例提供的一种互动装置结构图,如图4所示,所述装置还包括记录单元305:
所述记录单元305,用于记录所述对象对应的互动数据。
在一种可能的实现方式中,所述第一确定单元303,具体用于:
从所述图像的对象中确定所对应互动数据满足预设条件的待选对象;
根据所述待选对象和对应的标签,确定符合目标标签的对象集合。
在一种可能的实现方式中,所述第二确定单元304,具体用于:
从所述对象集合中随机确定进行互动的目标对象;
或者,基于获取的选择操作,从所述对象集合中确定进行互动的目标对象。
在一种可能的实现方式中,所述目标标签是基于获取的触发操作确定的,所述触发操作的生成方式包括如下方式中的一种或多种:
当确定满足预设的触发条件时自动生成;
基于用户的输入操作生成。
由上述技术方案可以看出,该方法应用于对象间的互动场景中,该方法包括:获取针对目标区域的图像,图像中包括至少一个对象。对对象添加对应的标签,所述标签用于体现所述对象的特征。根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,所述目标标签是根据互动需求确定的。从所述对象集合中确定进行互动的目标对象。该方法中,通过为图像中的对象添加了对应的标签,从而,可以基于符合互动需求的目标标签,从图像的对象中确定满足目标标签的对象作为进行互动的目标对象,无需预先了解各个对象的特征即确定出符合互动需求的对象,快速找到进行互动的目标对象,提高对象之间的互动效果。
本申请实施例提供了一种用于互动的设备,参见图5,该图示出了本申请实施例提供的一种互动设备结构图,如图5所示,所述设备包括处理器501以及存储器502:
所述存储器501用于存储计算机程序,并将所述计算机程序传输给所述处理器;
所述处理器502用于根据所述计算机程序中的指令执行上述任意一项所述的互动方法。
本申请实施例提供了一种计算机可读存储介质,参见图6,该图示出了本申请实施例提供的一种计算机可读存储介质示意图,如图6所示,所述计算机可读存储介质用于存储计算机程序601,所述计算机程序601用于执行上述任意一项所述的互动方法。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备,等等)执行本申请各个实施例或者实施例的某些部分所述的方法。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (12)

1.一种互动方法,其特征在于,所述方法应用于对象间的互动场景中,所述方法包括:
获取针对目标区域的图像,其中,所述图像中包括至少一个对象;
对所述对象添加对应的标签,所述标签用于体现所述对象的特征;
根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,其中,所述目标标签是根据互动需求确定的;
从所述对象集合中确定进行互动的目标对象。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
记录所述对象对应的互动数据。
3.根据权利要求2所述的方法,其特征在于,所述根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,包括:
从所述图像的对象中确定所对应互动数据满足预设条件的待选对象;
根据所述待选对象和对应的标签,确定符合目标标签的对象集合。
4.根据权利要求1所述的方法,其特征在于,所述从所述对象集合中确定进行互动的目标对象,包括:
从所述对象集合中随机确定进行互动的目标对象;
或者,基于获取的选择操作,从所述对象集合中确定进行互动的目标对象。
5.根据权利要求1-4任意一项所述的方法,其特征在于,所述目标标签是基于获取的触发操作确定的,所述触发操作的生成方式包括如下方式中的一种或多种:
当确定满足预设的触发条件时自动生成;
基于用户的输入操作生成。
6.一种互动装置,其特征在于,所述装置应用于对象间的互动场景中,所述装置包括:
获取单元,用于获取针对目标区域的图像,其中,所述图像中包括至少一个对象;
添加单元,用于对所述对象添加对应的标签,所述标签用于体现所述对象的特征;
第一确定单元,用于根据所述图像中的对象和对应的标签,确定符合目标标签的对象集合,其中,所述目标标签是根据互动需求确定的;
第二确定单元,用于从所述对象集合中确定进行互动的目标对象。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括记录单元:
所述记录单元,用于记录所述对象对应的互动数据。
8.根据权利要求7所述的装置,其特征在于,所述第一确定单元,具体用于:
从所述图像的对象中确定所对应互动数据满足预设条件的待选对象;
根据所述待选对象和对应的标签,确定符合目标标签的对象集合。
9.根据权利要求6所述的装置,其特征在于,所述第二确定单元,具体用于:
从所述对象集合中随机确定进行互动的目标对象;
或者,基于获取的选择操作,从所述对象集合中确定进行互动的目标对象。
10.根据权利要求6-9任意一项所述的装置,其特征在于,所述目标标签是基于获取的触发操作确定的,所述触发操作的生成方式包括如下方式中的一种或多种:
当确定满足预设的触发条件时自动生成;
基于用户的输入操作生成。
11.一种用于互动的设备,其特征在于,所述设备包括处理器以及存储器:
所述存储器用于存储计算机程序,并将所述计算机程序传输给所述处理器;
所述处理器用于根据所述计算机程序中的指令执行权利要求1-5任意一项所述的互动方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行权利要求1-5任意一项所述的互动方法。
CN202010093205.4A 2020-02-14 2020-02-14 一种互动方法、装置、设备和计算机存储介质 Pending CN111339853A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010093205.4A CN111339853A (zh) 2020-02-14 2020-02-14 一种互动方法、装置、设备和计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010093205.4A CN111339853A (zh) 2020-02-14 2020-02-14 一种互动方法、装置、设备和计算机存储介质

Publications (1)

Publication Number Publication Date
CN111339853A true CN111339853A (zh) 2020-06-26

Family

ID=71183602

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010093205.4A Pending CN111339853A (zh) 2020-02-14 2020-02-14 一种互动方法、装置、设备和计算机存储介质

Country Status (1)

Country Link
CN (1) CN111339853A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106625711A (zh) * 2016-12-30 2017-05-10 华南智能机器人创新研究院 一种定位机器人智能互动的方法
CN108009583A (zh) * 2017-11-30 2018-05-08 速感科技(北京)有限公司 一种可寻物的智能可移动设备及智能寻物方法
CN109740498A (zh) * 2018-12-28 2019-05-10 广东新源信息技术有限公司 一种基于人脸识别技术的智慧教室
CN109977850A (zh) * 2019-03-23 2019-07-05 西安电子科技大学 基于人脸识别的课堂姓名提示方法
US20190260966A1 (en) * 2018-02-19 2019-08-22 Albert Roy Leatherman, III System for Interactive Online Collaboration
CN110782185A (zh) * 2019-11-09 2020-02-11 上海光数信息科技有限公司 一种课堂行为识别分析方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106625711A (zh) * 2016-12-30 2017-05-10 华南智能机器人创新研究院 一种定位机器人智能互动的方法
CN108009583A (zh) * 2017-11-30 2018-05-08 速感科技(北京)有限公司 一种可寻物的智能可移动设备及智能寻物方法
US20190260966A1 (en) * 2018-02-19 2019-08-22 Albert Roy Leatherman, III System for Interactive Online Collaboration
CN109740498A (zh) * 2018-12-28 2019-05-10 广东新源信息技术有限公司 一种基于人脸识别技术的智慧教室
CN109977850A (zh) * 2019-03-23 2019-07-05 西安电子科技大学 基于人脸识别的课堂姓名提示方法
CN110782185A (zh) * 2019-11-09 2020-02-11 上海光数信息科技有限公司 一种课堂行为识别分析方法

Similar Documents

Publication Publication Date Title
CN109727041B (zh) 智能客服多轮问答方法、设备、存储介质及装置
CN111126553B (zh) 智能机器人面试方法、设备、存储介质及装置
CN107346336B (zh) 基于人工智能的信息处理方法和装置
CN111046133A (zh) 基于图谱化知识库的问答方法、设备、存储介质及装置
CN113360622B (zh) 用户对话信息的处理方法、装置及计算机设备
CN111428448B (zh) 文本生成方法、装置、计算机设备及可读存储介质
CN110472008B (zh) 智能交互方法以及装置
CN110347866B (zh) 信息处理方法、装置、存储介质及电子设备
CN111276148A (zh) 基于卷积神经网络的回访方法、系统及存储介质
CN113342942B (zh) 语料自动化获取方法、装置、计算机设备及存储介质
CN112434144B (zh) 生成目标问题的方法、装置、电子设备和计算机可读介质
CN112837772A (zh) 一种预问诊病历生成方法及装置
CN117216229A (zh) 一种生成客服答案的方法及装置
CN111222854A (zh) 基于面试机器人的面试方法、装置、设备及存储介质
CN114691903A (zh) 一种智能课程测试方法及系统、电子设备、存储介质
CN109065015B (zh) 一种数据采集方法、装置、设备及可读存储介质
CN112784022B (zh) 一种政务faq知识库自动构建方法、装置和电子设备
CN109885727A (zh) 资料推送方法、装置、电子设备及系统
CN117556057A (zh) 知识问答方法、向量数据库构建方法及装置
CN110400560B (zh) 数据处理方法及装置、存储介质、电子装置
CN111339853A (zh) 一种互动方法、装置、设备和计算机存储介质
CN115934904A (zh) 文本处理方法以及装置
CN115132353A (zh) 心理问题自动答复模型的生成方法、装置及设备
CN113780370B (zh) 视觉问答方法、装置、设备及存储介质
CN115248843A (zh) 辅助生成笔录的方法、装置和笔录生成系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 247100 workshop C2, science and Technology Incubation Park, Jiangnan industrial concentration zone, Chizhou City, Anhui Province

Applicant after: Anhui Wenxiang Technology Co.,Ltd.

Address before: 101102 Room 501, 5th floor, building 1, yard 26, Kechuang 13th Street, economic and Technological Development Zone, Daxing District, Beijing

Applicant before: BEIJING WENXIANG INFORMATION TECHNOLOGY Co.,Ltd.