CN107330418A - 一种人机交互方法、机器人系统和存储介质 - Google Patents
一种人机交互方法、机器人系统和存储介质 Download PDFInfo
- Publication number
- CN107330418A CN107330418A CN201710566178.6A CN201710566178A CN107330418A CN 107330418 A CN107330418 A CN 107330418A CN 201710566178 A CN201710566178 A CN 201710566178A CN 107330418 A CN107330418 A CN 107330418A
- Authority
- CN
- China
- Prior art keywords
- robot
- service object
- facial image
- man
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- Robotics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Ophthalmology & Optometry (AREA)
- Artificial Intelligence (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种人机交互方法、机器人系统和存储介质,属于机器人技术领域。该方法包括:第一机器人实时获取服务对象的人脸图像,然后根据所述人脸图像获取服务对象的表情信息,并将所述表情信息作为状态信息;第一机器人根据所述状态信息确定预设行为指令。本发明提供的一种人机交互方法、机器人系统和存储介质,丰富了智能服务机器人与服务对象的交互方式,并且提高了服务对象的使用体验。
Description
技术领域
本发明实施例涉及机器人领域,尤其涉及一种人机交互方法、机器人系统和存储介质。
背景技术
发展智能服务机器人是应对人口老龄化的必要选择。中国已于1999年步入老龄化社会。老年人在步入65岁之后身体健康状况容易出现恶化,因此日常生活照料和精神抚慰是老年人面临的主要困难。
当前,智能服务机器人有家用和医用服务机器人、智能陪护机器人和家用多功能智能机器人等。其中,智能服务机器人与服务对象的交互主要是通过语音实现。
发明人在实现本发明的过程中,发现现有技术存在如下缺陷:智能服务机器人与服务对象的交互方式单一,且对于说话有障碍的服务对象无法进行语音交互。
发明内容
本发明提供一种人机交互方法、机器人系统和存储介质,以丰富智能服务机器人与服务对象的交互方式,提高服务对象的使用体验。
第一方面,本发明实施例提供了一种人机交互方法,该方法包括:
第一机器人实时获取服务对象的人脸图像,然后根据所述人脸图像获取服务对象的表情信息,并将所述表情信息作为状态信息;
第一机器人根据所述状态信息确定预设行为指令。
进一步的,所述根据所述人脸图像获取服务对象的表情信息,包括:
从所述人脸图像中提取人脸特征;
将所述人脸特征与预设表情模板进行匹配;
根据匹配结果确定所述表情信息。
进一步的,在第一机器人实时获取服务对象的人脸图像之后,还包括:
从所述人脸图像中提取眼球的特征;
根据所述特征的变化,确定所述眼球运动信息;
将所述眼球信息作为所述状态信息。
进一步的,在第一机器人根据所述状态信息确定预设行为指令之后,还包括:
所述第一机器人将所述设定行为指令发送给第二机器人,由所述第二机器人响应所述设定行为指令。
本发明实施例,通过根据服务对象人脸的表情信息确定行为指令,从而实现利用人脸表情与服务对象进行交互的方式。进而,解决智能服务机器人与服务对象的交互方式单一,且对于说话有障碍的服务对象无法进行语音交互的问题。
第二方面,本发明实施例还提供了一种人机交互的机器人系统,其特征在于,包括:
将所述第一机器人作为主机器人;
所述主机器人通过无线网络获取至少一个从机器人实时采集的服务对象的人脸图像,其中所述从机器人的形态至少包括便携装置形态。
进一步的,所述主机器人获取所述从机器人实时采集的包含服务对象肢体动作的动作图像,和远端包含亲人的场景图像;
所述主机器人根据所述动作图像和远端包含亲人的场景图像,构建包含所述亲人的虚拟现实场景;
若所述主机器人识别到与服务对象互动的所述亲人的动作,则发送相应行为指令给所述从机器人,以使所述从机器人模拟所述亲人的动作与服务对象进行互动。
进一步的,所述从机器人设置在智能终端和/或智能家居中的智能设备中。
本发明实施例,通过便携装置形态的从机器人跟随服务对象进行人脸图像的采集,实现对服务对象的随时随地的监护。从而解决当前智能服务机器人不能像真人那样轻快灵活地移动,以满足对服务对象实时陪护的问题。
第三方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1-4中任一所述的人机交互方法。
附图说明
图1为本发明实施例一提供的一种人机交互方法的流程图;
图2是本发明实施例二提供的一种人机交互方法的流程图;
图3是本发明实施例三提供的一种人机交互的机器人系统的结构示意图;
图4是本发明实施例三提供的另一种人机交互的机器人系统的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种人机交互方法的流程图。本实施例可适用于机器人与服务对象进行交互的情况。该方法可以由一种具有人机交互功能的机器人和/或一种具有人机交互功能的机器人系统来执行。参见图1,本实施提供的人机交互方法包括:
S110、第一机器人实时获取服务对象的人脸图像,然后根据所述人脸图像获取服务对象的表情信息,并将所述表情信息作为状态信息。
其中,人脸图像为包含服务对象人脸的图像。服务对象的表情信息至少包括哭泣、生气、开心等。根据所述人脸图像获取服务对象的表情信息的方法可以是现有技术中的任一种可实现方法,可选的,可以通过模板匹配实现,也可以利用分类器实现。
典型的,所述根据所述人脸图像获取服务对象的表情信息,可以包括:
从所述人脸图像中提取人脸特征;
将所述人脸特征与预设表情模板进行匹配;
根据匹配结果确定所述表情信息。
其中,预设表情模板包括哭泣模板、生气模板和开心模板等。例如,若所述人脸特征与预设表情模板中的哭泣模板匹配度最高,且匹配度大于设定匹配阈值,则将哭泣模板关联的哭泣确定为所述表情信息。
S120、第一机器人根据所述状态信息确定预设行为指令。
其中,预设行为指令与所述状态信息关联存储,预设行为指令可以根据需求进行设定,具体可以是拥抱服务对象、播放与所述状态信息相适应的音乐等。
举例来说,若第一机器人根据服务对象的人脸图像确定的状态信息是开心,则第一机器人根据所述状态信息确定的预设行为指令可以是播放轻快明朗的音乐,以适应服务对象的心情。
本发明实施例的技术方案,通过根据服务对象人脸的表情信息确定行为指令,从而实现利用人脸表情与服务对象进行交互的方式。进而,解决智能服务机器人与服务对象的交互方式单一的问题。
为实现多个机器人服务一个服务对象的功能,在第一机器人根据所述状态信息确定预设行为指令之后,还可以包括:
所述第一机器人将所述设定行为指令发送给第二机器人,由所述第二机器人响应所述设定行为指令。
可选的,第二机器人可以有多个。该第二机器人的形态可以是任意形态,为方便对服务对象的随时随地的照顾,该第二机器人的形态可以设置为易于携带的便携装置形态,例如水杯、雨伞、手表和拐杖等,也可以直接嵌入像水杯、雨伞、手表和拐杖等便携装置中。
为进一步准确确定服务对象的需求,在第一机器人实时获取服务对象的人脸图像之后,还可以包括:
从所述人脸图像中提取眼球的特征;
根据所述特征的变化,确定所述眼球运动信息;
将所述眼球信息作为所述状态信息。
实施例二
图2是本发明实施例二提供的一种人机交互方法的流程图。本实施例是在上述实施例一的基础上提出的一种可选方案。参见图2,本实施例提供的人机交互方法包括:
S210、从所述人脸图像中提取人脸特征和眼球的特征。
需要说明的是,从所述人脸图像中提取眼球的特征的方法,可以是现有技术中的任意一种可实现的方法。本实施例对此并不限制。
S220、将所述人脸特征与预设表情模板进行匹配。
S230、根据匹配结果确定所述表情信息,并根据眼球的特征变化,确定所述眼球运动信息。
典型的,根据眼球的特征变化,确定所述眼球运动信息的方法可以是利用发展相对成熟的眼球追踪技术实现。
S240、根据所述表情信息和所述眼球运动信息,确定预设行为指令。
其中,根据所述表情信息、所述眼球运动信息、预设行为指令根据需求预先关联存储。
S250、所述第一机器人将所述设定行为指令发送给第二机器人,由所述第二机器人响应所述设定行为指令。
本发明实施的技术方案,通过根据所述表情信息和所述眼球运动信息更准确的确定服务对象的需求,从而提供更精准的人机交互,进而提高用户体验。同时,所述第一机器人将所述设定行为指令发送给第二机器人,实现多个机器人同时协同对服务对象进行服务。
实施例三
图3是本发明实施例三提供的一种人机交互的机器人系统的结构示意图。参见图3,本实施例提供的人机交互的机器人系统包括一个机器人10和至少一个从机器人20。
其中,主机器人10为所述第一机器人,该主机器人10的结构相对复杂,且功能相对齐全。所述主机器人10通过无线网络获取至少一个从机器人20实时采集的服务对象的人脸图像,并且所述从机器人20的形态至少包括便携装置形态。
图4是本发明实施例三提供的另一种人机交互的机器人系统的结构示意图。在实际应用中,该从机器人的形态可以是任意形态,例如,人体形态。为方便对服务对象的随时随地的照顾,该从机器人的形态可以设置为易于携带的便携装置形态,例如水杯形态、雨伞形态、手表形态和拐杖形态等,也可以直接嵌入像水杯、雨伞、手表和拐杖等便携装置中。典型的,上述从机器人可以是设置在手机中的一段智能代码。参见图4,主机器人可以通过太网/WiFi/3G/4G等有线/无线通信手段与水杯形态从机器人、雨伞形态从机器人、手表形态从机器人、拐杖形态从机器人和手机形态从机器人进行通信。
典型的,所述从机器人可以设置在智能终端和/或智能家居中的智能设备中。可选的,所述从机器人也可以是设置有相应功能的智能终端和/或智能家居中的智能设备。
为给服务对象提供空间覆盖更广的服务,所述从机器人还可以关联至少一个子从机器人,所述从机器人通过太网/WiFi/3G/4G等有线/无线通信手段向子从机器人发送行为指令。可以理解的是,为给服务对象提供空间覆盖更广的服务,还可以对该人机交互的机器人系统进一步扩展层级数量,本实施例对此不进行限制。
实施例四
本实施例是在上述实施例三的基础上提出的一种可选方案。本实施例提供的人机交互的机器人系统包括:一个主机器人和多个从机器人。
其中,所述主机器人获取所述从机器人实时采集的包含服务对象肢体动作的动作图像,和远端包含亲人的场景图像;
所述主机器人根据所述动作图像和远端包含亲人的场景图像,构建包含所述亲人的虚拟现实场景;
若所述主机器人识别到与服务对象互动的所述亲人的动作,则发送相应行为指令给所述从机器人,以使所述从机器人模拟所述亲人的动作与服务对象进行互动。
其中,远端包含亲人的场景图像可以从与远端亲人的视频中获得。
比如,若所述主机器人识别到与服务对象互动的所述亲人的动作是拥抱,则发送拥抱行为指令给所述从机器人,以使所述从机器人模拟所述亲人的拥抱动作与服务对象进行拥抱。
本发明实施例的技术方案,通过构建包含所述亲人的虚拟现实场景,并利用所述从机器人模拟所述亲人的动作与服务对象进行互动。一方面实现了服务对象可通过虚拟现实场景看到亲人的动作,另一方面实现了通过和从服务机器人拥抱可以体验到和亲人的拥抱。进而实现和亲人的远程亲密交互,提高用户体验。
实施例五
本发明实施例五还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种人机交互方法,该方法包括:
第一机器人实时获取服务对象的人脸图像,然后根据所述人脸图像获取服务对象的表情信息,并将所述表情信息作为状态信息;
第一机器人根据所述状态信息确定预设行为指令。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的人机交互方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (8)
1.一种人机交互方法,其特征在于,包括:
第一机器人实时获取服务对象的人脸图像,然后根据所述人脸图像获取服务对象的表情信息,并将所述表情信息作为状态信息;
第一机器人根据所述状态信息确定预设行为指令。
2.根据权利要求1所述的方法,其特征在于,所述根据所述人脸图像获取服务对象的表情信息,包括:
从所述人脸图像中提取人脸特征;
将所述人脸特征与预设表情模板进行匹配;
根据匹配结果确定所述表情信息。
3.根据权利要求1所述的方法,其特征在于,在第一机器人实时获取服务对象的人脸图像之后,还包括:
从所述人脸图像中提取眼球的特征;
根据所述特征的变化,确定所述眼球运动信息;
将所述眼球信息作为所述状态信息。
4.根据权利要求1所述的方法,其特征在于,在第一机器人根据所述状态信息确定预设行为指令之后,还包括:
所述第一机器人将所述设定行为指令发送给第二机器人,由所述第二机器人响应所述设定行为指令。
5.一种适用上述权利要求1所述人机交互方法的机器人系统,其特征在于,包括:
将所述第一机器人作为主机器人;
所述主机器人通过无线网络获取至少一个从机器人实时采集的服务对象的人脸图像,其中所述从机器人的形态至少包括便携装置形态。
6.根据权利要求5所述的系统,其特征在于:
所述主机器人获取所述从机器人实时采集的包含服务对象肢体动作的动作图像,和远端包含亲人的场景图像;
所述主机器人根据所述动作图像和远端包含亲人的场景图像,构建包含所述亲人的虚拟现实场景;
若所述主机器人识别到与服务对象互动的所述亲人的动作,则发送相应行为指令给所述从机器人,以使所述从机器人模拟所述亲人的动作与服务对象进行互动。
7.根据权利要求5所述的机器人系统,其特征在于:
所述从机器人设置在智能终端和/或智能家居中的智能设备中。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的人机交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710566178.6A CN107330418B (zh) | 2017-07-12 | 2017-07-12 | 一种机器人系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710566178.6A CN107330418B (zh) | 2017-07-12 | 2017-07-12 | 一种机器人系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107330418A true CN107330418A (zh) | 2017-11-07 |
CN107330418B CN107330418B (zh) | 2021-06-01 |
Family
ID=60197631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710566178.6A Active CN107330418B (zh) | 2017-07-12 | 2017-07-12 | 一种机器人系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107330418B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108052079A (zh) * | 2017-12-12 | 2018-05-18 | 北京小米移动软件有限公司 | 设备控制方法、装置、设备控制装置及存储介质 |
CN108053826A (zh) * | 2017-12-04 | 2018-05-18 | 泰康保险集团股份有限公司 | 用于人机交互的方法、装置、电子设备及存储介质 |
CN109062482A (zh) * | 2018-07-26 | 2018-12-21 | 百度在线网络技术(北京)有限公司 | 人机交互控制方法、装置、服务设备及存储介质 |
WO2019091125A1 (zh) * | 2017-11-08 | 2019-05-16 | 深圳市科迈爱康科技有限公司 | 肢体动作识别方法、装置及计算机可读存储介质 |
CN109992091A (zh) * | 2017-12-29 | 2019-07-09 | 深圳市优必选科技有限公司 | 一种人机交互方法、装置、机器人及存储介质 |
CN110348193A (zh) * | 2019-05-24 | 2019-10-18 | 招银云创(深圳)信息技术有限公司 | 验证方法、装置、设备和存储介质 |
CN112060084A (zh) * | 2020-08-20 | 2020-12-11 | 江门龙浩智能装备有限公司 | 一种智能互动系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010028731A1 (en) * | 1996-05-21 | 2001-10-11 | Michele Covell | Canonical correlation analysis of image/control-point location coupling for the automatic location of control points |
CN102999045A (zh) * | 2012-10-24 | 2013-03-27 | 蒋瑛倩 | 导盲用拐杖机器人的控制方法 |
CN103246879A (zh) * | 2013-05-13 | 2013-08-14 | 苏州福丰科技有限公司 | 一种基于表情识别的智能机器人系统 |
CN205750354U (zh) * | 2016-05-12 | 2016-11-30 | 深圳市金乐智能健康科技有限公司 | 一种表情机器人 |
CN106335058A (zh) * | 2016-10-12 | 2017-01-18 | 北京光年无限科技有限公司 | 应用于智能机器人系统的多模态交互方法及智能机器人 |
CN106625678A (zh) * | 2016-12-30 | 2017-05-10 | 首都师范大学 | 机器人表情控制方法和装置 |
-
2017
- 2017-07-12 CN CN201710566178.6A patent/CN107330418B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010028731A1 (en) * | 1996-05-21 | 2001-10-11 | Michele Covell | Canonical correlation analysis of image/control-point location coupling for the automatic location of control points |
CN102999045A (zh) * | 2012-10-24 | 2013-03-27 | 蒋瑛倩 | 导盲用拐杖机器人的控制方法 |
CN103246879A (zh) * | 2013-05-13 | 2013-08-14 | 苏州福丰科技有限公司 | 一种基于表情识别的智能机器人系统 |
CN205750354U (zh) * | 2016-05-12 | 2016-11-30 | 深圳市金乐智能健康科技有限公司 | 一种表情机器人 |
CN106335058A (zh) * | 2016-10-12 | 2017-01-18 | 北京光年无限科技有限公司 | 应用于智能机器人系统的多模态交互方法及智能机器人 |
CN106625678A (zh) * | 2016-12-30 | 2017-05-10 | 首都师范大学 | 机器人表情控制方法和装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019091125A1 (zh) * | 2017-11-08 | 2019-05-16 | 深圳市科迈爱康科技有限公司 | 肢体动作识别方法、装置及计算机可读存储介质 |
CN108053826A (zh) * | 2017-12-04 | 2018-05-18 | 泰康保险集团股份有限公司 | 用于人机交互的方法、装置、电子设备及存储介质 |
CN108053826B (zh) * | 2017-12-04 | 2021-01-15 | 泰康保险集团股份有限公司 | 用于人机交互的方法、装置、电子设备及存储介质 |
CN108052079A (zh) * | 2017-12-12 | 2018-05-18 | 北京小米移动软件有限公司 | 设备控制方法、装置、设备控制装置及存储介质 |
CN109992091A (zh) * | 2017-12-29 | 2019-07-09 | 深圳市优必选科技有限公司 | 一种人机交互方法、装置、机器人及存储介质 |
CN109062482A (zh) * | 2018-07-26 | 2018-12-21 | 百度在线网络技术(北京)有限公司 | 人机交互控制方法、装置、服务设备及存储介质 |
CN110348193A (zh) * | 2019-05-24 | 2019-10-18 | 招银云创(深圳)信息技术有限公司 | 验证方法、装置、设备和存储介质 |
CN112060084A (zh) * | 2020-08-20 | 2020-12-11 | 江门龙浩智能装备有限公司 | 一种智能互动系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107330418B (zh) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107330418A (zh) | 一种人机交互方法、机器人系统和存储介质 | |
CN107894833B (zh) | 基于虚拟人的多模态交互处理方法及系统 | |
TW201919388A (zh) | 視頻通信的方法、裝置、終端及電腦可讀儲存介質 | |
CN107704169B (zh) | 虚拟人的状态管理方法和系统 | |
CN106445156A (zh) | 一种基于虚拟现实的智能家居控制的方法、装置以及终端 | |
CN105682011B (zh) | 播放设备的蓝牙模块控制方法、装置及音视频播放系统 | |
CN111583154B (zh) | 图像处理方法、肤质美化模型训练方法及相关装置 | |
CN110947181A (zh) | 游戏画面显示方法、装置、存储介质及电子设备 | |
CN110298873A (zh) | 三维地图的构建方法、构建装置、机器人及可读存储介质 | |
CN107679519A (zh) | 一种基于虚拟人的多模态交互处理方法及系统 | |
CN110430384A (zh) | 视频通话方法、装置以及智能终端、存储介质 | |
CN109343695A (zh) | 基于虚拟人行为标准的交互方法及系统 | |
CN108133259A (zh) | 人工虚拟生命与外界交互的系统及方法 | |
CN114007099A (zh) | 一种视频处理方法、装置和用于视频处理的装置 | |
CN106502382A (zh) | 用于智能机器人的主动交互方法和系统 | |
CN106572131B (zh) | 物联网中媒体数据分享的方法及系统 | |
CN113436602A (zh) | 虚拟形象语音交互方法、装置、投影设备和计算机介质 | |
Qian et al. | AIEM: AI-enabled affective experience management | |
CN106354255A (zh) | 一种面向机器人产品的人机交互方法及装置 | |
CN108388399B (zh) | 虚拟偶像的状态管理方法及系统 | |
CN107831890A (zh) | 基于ar的人机交互方法、装置及设备 | |
CN113827953B (zh) | 游戏控制系统 | |
CN109413663A (zh) | 一种信息处理方法和设备 | |
CN108724203A (zh) | 一种交互方法及装置 | |
CN110822649B (zh) | 空调器的控制方法、空调器及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |