CN109284727A - 一种机器人识别环境的方法及装置 - Google Patents

一种机器人识别环境的方法及装置 Download PDF

Info

Publication number
CN109284727A
CN109284727A CN201811168413.5A CN201811168413A CN109284727A CN 109284727 A CN109284727 A CN 109284727A CN 201811168413 A CN201811168413 A CN 201811168413A CN 109284727 A CN109284727 A CN 109284727A
Authority
CN
China
Prior art keywords
article
measured
item pictures
picture
pictures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811168413.5A
Other languages
English (en)
Inventor
许世豪
钱英杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Siyixuan Robot Technology Co Ltd
Original Assignee
Shanghai Siyixuan Robot Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Siyixuan Robot Technology Co Ltd filed Critical Shanghai Siyixuan Robot Technology Co Ltd
Priority to CN201811168413.5A priority Critical patent/CN109284727A/zh
Publication of CN109284727A publication Critical patent/CN109284727A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种机器人识别环境的方法及系统,机器人通过将采集的外界环境中的待测物品图片,与预存储的和待测物品图片中包含同一物品的基准图片进行比对,来判断待测物品图片中的物品是否发生改变,并在确定物品发生改变时,输出用于提示用户待测物品图片中的物品发生改变的提示信息。因此,本发明实现了机器人对周围环境的自动识别,并可将环境中物品的改变告知用户,从而可以根据用户需求更好的服务用户。

Description

一种机器人识别环境的方法及装置
技术领域
本发明涉及机器人技术领域,更具体的说,涉及一种机器人识别环境的方法及系统。
背景技术
随着机器人技术的发展,机器人的应用范围越来越广泛,甚至有些机器人已经进入家庭使用。
对于机器人来说,如何对周边环境进行识别,以便确定周边环境是否发生改变,从而更好的服务于用户,成为了机器人领域中的一个热点研究课题。
发明内容
有鉴于此,本发明公开一种机器人识别环境的方法及系统,以实现机器人对周围环境的自动识别,并可将环境中物品的改变告知用户,从而可以根据用户需求更好的服务用户。
一种机器人识别环境的方法,包括:
采集外界环境中的待测物品图片;
从所述待测物品图片中识别出物品特征信息;
基于识别出的所述物品特征信息,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片;
将所述待测物品图片与所述基准图片进行比对,判断所述待测物品图片中的物品是否发生改变;
若所述物品发生改变,则输出提示信息,所述提示信息用于提示用户所述待测物品图片中的物品发生改变。
可选的,所述物品特征信息包括:物品的大小、颜色以及所处的相对位置。
可选的,所述基于识别出的所述物品特征信息,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片,具体包括:
基于识别出的所述物品特征信息,确定所述待测物品图片中物品的名称和属性;
基于所述物品的名称和属性,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片。
可选的,所述将所述待测物品图片与所述基准图片进行比对,判断所述待测物品图片中的物品是否发生改变,具体包括:
将所述待测物品图片中每个像素点的位置以及颜色与所述基准图片中每个像素点的位置以及颜色进行对比识别,判断所述待测物品图片中的物品是否发生改变。
可选的,还包括:
连续采集包含同一人脸的多张人脸图片;
对每张人脸图片进行表情识别,得到多个表情识别结果;
基于多个表情识别结果对应的人脸图片的采集顺序,确认人脸表情变化。
可选的,还包括:
基于所述人脸表情变化,从预存储的人脸表情变化与肢体语言和/语音的对应关系中,查找到相对应的肢体语言和/或语音;
输出所述肢体语言和/语音。
一种机器人识别环境的装置,包括:
第一采集单元,用于采集外界环境中的待测物品图片;
第一识别单元,用于从所述待测物品图片中识别出物品特征信息;
筛选单元,用于基于识别出的所述物品特征信息,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片;
比对单元,用于将所述待测物品图片与所述基准图片进行比对,判断所述待测物品图片中的物品是否发生改变;
第一输出单元,用于若所述物品发生改变,则输出提示信息,所述提示信息用于提示用户所述待测物品图片中的物品发生改变。
可选的,所述物品特征信息包括:物品的大小、颜色以及所处的相对位置。
可选的,所述筛选单元具体包括:
确定子单元,用于基于识别出的所述物品特征信息,确定所述待测物品图片中物品的名称和属性;
筛选子单元,用于基于所述物品的名称和属性,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片。
可选的,所述比对单元具体包括:
比对子单元,用于将所述待测物品图片中每个像素点的位置以及颜色与所述基准图片中每个像素点的位置以及颜色进行对比识别,判断所述待测物品图片中的物品是否发生改变。
可选的,还包括:
第二采集单元,用于连续采集包含同一人脸的多张人脸图片;
第二识别单元,用于对每张人脸图片进行表情识别,得到多个表情识别结果;
表情确定单元,用于基于多个表情识别结果对应的人脸图片的采集顺序,确认人脸表情变化。
可选的,还包括:
查找单元,用于基于所述人脸表情变化,从预存储的人脸表情变化与肢体语言和/语音的对应关系中,查找到相对应的肢体语言和/或语音;
第二输出单元,用于输出所述肢体语言和/语音。
从上述的技术方案可知,本发明公开了一种机器人识别环境的方法及系统,机器人通过将采集的外界环境中的待测物品图片,与预存储的和待测物品图片中包含同一物品的基准图片进行比对,来判断待测物品图片中的物品是否发生改变,并在确定物品发生改变时,输出用于提示用户待测物品图片中的物品发生改变的提示信息。因此,本发明实现了机器人对周围环境的自动识别,并可将环境中物品的改变告知用户,从而可以根据用户需求更好的服务用户。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据公开的附图获得其他的附图。
图1为本发明实施例公开的一种机器人识别环境的方法流程图;
图2为本发明实施例公开的一种机器人识别环境中的人脸表情变化的方法流程图;
图3为本发明实施例公开的一种机器人识别环境的装置的结构示意图;
图4为本发明实施例公开的另一种机器人识别环境的装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种机器人识别环境的方法及系统,机器人通过将采集的外界环境中的待测物品图片,与预存储的和待测物品图片中包含同一物品的基准图片进行比对,来判断待测物品图片中的物品是否发生改变,并在确定物品发生改变时,输出用于提示用户待测物品图片中的物品发生改变的提示信息。因此,本发明实现了机器人对周围环境的自动识别,并可将环境中物品的改变告知用户,从而可以根据用户需求更好的服务用户。
参见图1,本发明一实施例公开的一种机器人识别环境的方法流程图,该方法包括步骤:
步骤S101、采集外界环境中的待测物品图片;
其中,待测物品图片指的是包含有待测物品的图片,比如,待测物品为用户家中的家具,则待测物品图片为包含家具的图片。
步骤S102、从待测物品图片中识别出物品特征信息;
在实际应用中,物品特征信息包括但不限于物品的大小、颜色和物品所处的相对位置,比如,待测物品为用户家中的家具,该家具边上相邻一个衣架,则物品所处的相对位置为家具相对于衣架的位置。
步骤S103、基于识别出的物品特征信息,从预存储的图片中筛选出与待测物品图片中包含同一物品的基准图片;
需要说明的是,机器人在对外界环境进行识别之前,会先采集外界环境中的图片,并将采集的图片存储到数据库。
当机器人从采集的待测物品图片中识别出物品特征信息后,就可以从数据库存储的图片中,筛选出与待测物品图片中包含同一物品的基准图片。
步骤S104、将待测物品图片与所述基准图片进行比对,判断待测物品图片中的物品是否发生改变,如果是,则执行步骤S105;
需要说明的是,图片是由像素点组成的,不同的像素点代表不同的颜色,通过将这些颜色按照规律并排到电子设备上,就形成了图片。图片之间的对比识别实际上就是对图片上的像素点进行识别。
因此,步骤S104具体可以包括:
将待测物品图片中每个像素点的位置以及颜色与基准图片中每个像素点的位置以及颜色进行对比识别,判断待测物品图片中的物品是否发生改变,当待测物品图片中存在与基准图片中表征同一物品的像素点的位置以及颜色不同的像素点时,则确定待测物品图片中的物品发生改变。
其中,在实际应用中,可以仅将待测物品图片中表征物品的像素点与基准图片中表征同一物品的像素点进行比对识别,来确定物品是否发生了变化。
步骤S105、输出提示信息,所述提示信息用于提示用户待测物品图片中的物品发生改变。
需要说明的是,当确定待测物品图片中的物品没有发生改变时,机器人可以输出提示信息,用于提述用户待测物品图片中的物品未发生改变。
综上可知,本发明公开的机器人识别环境的方法,机器人通过将采集的外界环境中的待测物品图片,与预存储的和待测物品图片中包含同一物品的基准图片进行比对,来判断待测物品图片中的物品是否发生改变,并在确定物品发生改变时,输出用于提示用户待测物品图片中的物品发生改变的提示信息。因此,本发明实现了机器人对周围环境的自动识别,并可将环境中物品的改变告知用户,从而可以根据用户需求更好的服务用户。
为进一步优化上述实施例,步骤S103具体可以包括:
基于识别出的物品特征信息,确定待测物品图片中物品的名称和属性;
基于物品的名称和属性,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片。
具体的,当从待测物品图片中识别出物品特征信息后,就可以基于识别的物品特征信息包括:物品的大小、颜色和所处的相对位置,采用现有技术,确定待测物品图片中物品的名称和属性。
需要说明的是,本发明实施例中,数据库中不仅存储有图片,还存储有图片中示出的物品的名称和属性,比如,待测物品图片为包含苹果的图片,则数据库中处了存储有包含苹果的图片外,还存储有名称“苹果”,属性“水果”。
因此,在确定待测物品图片中物品的名称和属性后,就可以基于物品的名称和属性,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片。
需要特别说明的是,本发明中,机器人不仅可以对外界环境中的物品进行识别,还可以对人脸的变化进行识别。
为进一步优化上述实施例,参见图2,本发明另一实施例公开的一种机器人识别环境中的人脸表情变化的方法流程图,包括步骤:
步骤S201、连续采集包含同一人脸的多张人脸图片;
可以理解,当同一人脸的面部表情发生变化时,连续采集的包含同一人脸的多张人脸图片会存在区别,比如,当人微笑时,连续采集的包含同一人脸的多张人脸图片可以显示出人微笑过程中嘴角上扬的过程。
步骤S202、对每张人脸图片进行表情识别,得到多个表情识别结果;
在实际应用中,可以对每张人脸图像依次进行预处理,并对预处理的图片进行表情特征提取,基于提取出的表情特征,确定表情识别结果。
比如,提取出的表情特征为:眼睛眯起、嘴角翘起、上唇提升、苹果肌提升等,则表情识别结果为:微笑。
步骤S203、基于多个表情识别结果对应的人脸图片的采集顺序,确认人脸表情变化;
可以理解,人脸的表情是逐渐变化的,采集的多张人脸图像的排列顺序不同,所得到的人脸表情变化不同,比如,由非微笑表情到微笑表情的图片,和由微笑表情到非微笑表情的图片,正好是反的。
因此,本实施例基于多个表情识别结果对应的人脸图片的采集顺序,确认人脸表情变化。
步骤S204、基于人脸表情变化,从预存储的人脸表情变化与肢体语言和/语音的对应关系中,查找到相对应的肢体语言和/或语音;
步骤S205、输出肢体语言和/语音。
综上可知,本发明中的机器人不仅可以对外界环境中物品的变化进行识别,还可以对人脸的面部表情变化进行识别,并且,还可以基于面部表情识别结果做出相对应的人性化举动,从而可以更好的服务器用户。
与上述方法实施例相对应,本发明还公开了一种机器人识别环境的装置。
参见图3,本发明一实施例公开的一种机器人识别环境的装置的结构示意图,包括:
第一采集单元301,用于采集外界环境中的待测物品图片;
其中,待测物品图片指的是包含有待测物品的图片,比如,待测物品为用户家中的家具,则待测物品图片为包含家具的图片。
第一识别单元302,用于从所述待测物品图片中识别出物品特征信息;
在实际应用中,物品特征信息包括但不限于物品的大小、颜色和物品所处的相对位置,比如,待测物品为用户家中的家具,该家具边上相邻一个衣架,则物品所处的相对位置为家具相对于衣架的位置。
筛选单元303,用于基于识别出的所述物品特征信息,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片;
需要说明的是,机器人在对外界环境进行识别之前,会先采集外界环境中的图片,并将采集的图片存储到数据库。
当机器人从采集的待测物品图片中识别出物品特征信息后,就可以从数据库存储的图片中,筛选出与待测物品图片中包含同一物品的基准图片。
比对单元304,用于将所述待测物品图片与所述基准图片进行比对,判断所述待测物品图片中的物品是否发生改变;
需要说明的是,图片是由像素点组成的,不同的像素点代表不同的颜色,通过将这些颜色按照规律并排到电子设备上,就形成了图片。图片之间的对比识别实际上就是对图片上的像素点进行识别。
因此,比对单元304具体可以包括:
比对子单元,用于将所述待测物品图片中每个像素点的位置以及颜色与所述基准图片中每个像素点的位置以及颜色进行对比识别,判断所述待测物品图片中的物品是否发生改变。
其中,在实际应用中,可以仅将待测物品图片中表征物品的像素点与基准图片中表征同一物品的像素点进行比对识别,来确定物品是否发生了变化。
第一输出单元305,用于若所述物品发生改变,则输出提示信息,所述提示信息用于提示用户所述待测物品图片中的物品发生改变。
需要说明的是,当确定待测物品图片中的物品没有发生改变时,机器人可以输出提示信息,用于提述用户待测物品图片中的物品未发生改变。
综上可知,本发明公开的机器人识别环境的装置,机器人通过将采集的外界环境中的待测物品图片,与预存储的和待测物品图片中包含同一物品的基准图片进行比对,来判断待测物品图片中的物品是否发生改变,并在确定物品发生改变时,输出用于提示用户待测物品图片中的物品发生改变的提示信息。因此,本发明实现了机器人对周围环境的自动识别,并可将环境中物品的改变告知用户,从而可以根据用户需求更好的服务用户。
为进一步优化上述实施例,筛选单元303具体可以包括:
确定子单元,用于基于识别出的所述物品特征信息,确定所述待测物品图片中物品的名称和属性;
筛选子单元,用于基于所述物品的名称和属性,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片。
具体的,当从待测物品图片中识别出物品特征信息后,就可以基于识别的物品特征信息包括:物品的大小、颜色和所处的相对位置,采用现有技术,确定待测物品图片中物品的名称和属性。
需要说明的是,本发明实施例中,数据库中不仅存储有图片,还存储有图片中示出的物品的名称和属性,比如,待测物品图片为包含苹果的图片,则数据库中处了存储有包含苹果的图片外,还存储有名称“苹果”,属性“水果”。
因此,在确定待测物品图片中物品的名称和属性后,就可以基于物品的名称和属性,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片。
需要特别说明的是,本发明中,机器人不仅可以对外界环境中的物品进行识别,还可以对人脸的变化进行识别。
为进一步优化上述实施例,参见图4,本发明另一实施例公开的一种机器人识别环境装置的结构示意图,包括:
第二采集单元401,用于连续采集包含同一人脸的多张人脸图片;
可以理解,当同一人脸的面部表情发生变化时,连续采集的包含同一人脸的多张人脸图片会存在区别,比如,当人微笑时,连续采集的包含同一人脸的多张人脸图片可以显示出人微笑过程中嘴角上扬的过程。
第二识别单元402,用于对每张人脸图片进行表情识别,得到多个表情识别结果;
在实际应用中,可以对每张人脸图像依次进行预处理,并对预处理的图片进行表情特征提取,基于提取出的表情特征,确定表情识别结果。
比如,提取出的表情特征为:眼睛眯起、嘴角翘起、上唇提升、苹果肌提升等,则表情识别结果为:微笑。
表情确定单元403,用于基于多个表情识别结果对应的人脸图片的采集顺序,确认人脸表情变化。
可以理解,人脸的表情是逐渐变化的,采集的多张人脸图像的排列顺序不同,所得到的人脸表情变化不同,比如,由非微笑表情到微笑表情的图片,和由微笑表情到非微笑表情的图片,正好是反的。
因此,本实施例基于多个表情识别结果对应的人脸图片的采集顺序,确认人脸表情变化。
查找单元404,用于基于所述人脸表情变化,从预存储的人脸表情变化与肢体语言和/语音的对应关系中,查找到相对应的肢体语言和/或语音;
第二输出单元405,用于输出所述肢体语言和/语音。
综上可知,本发明中的机器人不仅可以对外界环境中物品的变化进行识别,还可以对人脸的面部表情变化进行识别,并且,还可以基于面部表情识别结果做出相对应的人性化举动,从而可以更好的服务器用户。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (12)

1.一种机器人识别环境的方法,其特征在于,包括:
采集外界环境中的待测物品图片;
从所述待测物品图片中识别出物品特征信息;
基于识别出的所述物品特征信息,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片;
将所述待测物品图片与所述基准图片进行比对,判断所述待测物品图片中的物品是否发生改变;
若所述物品发生改变,则输出提示信息,所述提示信息用于提示用户所述待测物品图片中的物品发生改变。
2.根据权利要求1所述的方法,其特征在于,所述物品特征信息包括:物品的大小、颜色以及所处的相对位置。
3.根据权利要求1所述的方法,其特征在于,所述基于识别出的所述物品特征信息,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片,具体包括:
基于识别出的所述物品特征信息,确定所述待测物品图片中物品的名称和属性;
基于所述物品的名称和属性,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片。
4.根据权利要求1所述的方法,其特征在于,所述将所述待测物品图片与所述基准图片进行比对,判断所述待测物品图片中的物品是否发生改变,具体包括:
将所述待测物品图片中每个像素点的位置以及颜色与所述基准图片中每个像素点的位置以及颜色进行对比识别,判断所述待测物品图片中的物品是否发生改变。
5.根据权利要求1所述的方法,其特征在于,还包括:
连续采集包含同一人脸的多张人脸图片;
对每张人脸图片进行表情识别,得到多个表情识别结果;
基于多个表情识别结果对应的人脸图片的采集顺序,确认人脸表情变化。
6.根据权利要求5所述的方法,其特征在于,还包括:
基于所述人脸表情变化,从预存储的人脸表情变化与肢体语言和/语音的对应关系中,查找到相对应的肢体语言和/或语音;
输出所述肢体语言和/语音。
7.一种机器人识别环境的装置,其特征在于,包括:
第一采集单元,用于采集外界环境中的待测物品图片;
第一识别单元,用于从所述待测物品图片中识别出物品特征信息;
筛选单元,用于基于识别出的所述物品特征信息,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片;
比对单元,用于将所述待测物品图片与所述基准图片进行比对,判断所述待测物品图片中的物品是否发生改变;
第一输出单元,用于若所述物品发生改变,则输出提示信息,所述提示信息用于提示用户所述待测物品图片中的物品发生改变。
8.根据权利要求7所述的装置,其特征在于,所述物品特征信息包括:物品的大小、颜色以及所处的相对位置。
9.根据权利要求7所述的装置,其特征在于,所述筛选单元具体包括:
确定子单元,用于基于识别出的所述物品特征信息,确定所述待测物品图片中物品的名称和属性;
筛选子单元,用于基于所述物品的名称和属性,从预存储的图片中筛选出与所述待测物品图片中包含同一物品的基准图片。
10.根据权利要求7所述的装置,其特征在于,所述比对单元具体包括:
比对子单元,用于将所述待测物品图片中每个像素点的位置以及颜色与所述基准图片中每个像素点的位置以及颜色进行对比识别,判断所述待测物品图片中的物品是否发生改变。
11.根据权利要求7所述的装置,其特征在于,还包括:
第二采集单元,用于连续采集包含同一人脸的多张人脸图片;
第二识别单元,用于对每张人脸图片进行表情识别,得到多个表情识别结果;
表情确定单元,用于基于多个表情识别结果对应的人脸图片的采集顺序,确认人脸表情变化。
12.根据权利要求11所述的装置,其特征在于,还包括:
查找单元,用于基于所述人脸表情变化,从预存储的人脸表情变化与肢体语言和/语音的对应关系中,查找到相对应的肢体语言和/或语音;
第二输出单元,用于输出所述肢体语言和/语音。
CN201811168413.5A 2018-10-08 2018-10-08 一种机器人识别环境的方法及装置 Pending CN109284727A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811168413.5A CN109284727A (zh) 2018-10-08 2018-10-08 一种机器人识别环境的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811168413.5A CN109284727A (zh) 2018-10-08 2018-10-08 一种机器人识别环境的方法及装置

Publications (1)

Publication Number Publication Date
CN109284727A true CN109284727A (zh) 2019-01-29

Family

ID=65176701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811168413.5A Pending CN109284727A (zh) 2018-10-08 2018-10-08 一种机器人识别环境的方法及装置

Country Status (1)

Country Link
CN (1) CN109284727A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105224929A (zh) * 2015-10-10 2016-01-06 北京邮电大学 一种查找人脸照片的方法
CN106249895A (zh) * 2016-08-09 2016-12-21 清华大学 一种机器人识别环境变化时的人机交互方法以及系统
CN108614987A (zh) * 2016-12-13 2018-10-02 深圳光启合众科技有限公司 数据处理的方法、装置和机器人

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105224929A (zh) * 2015-10-10 2016-01-06 北京邮电大学 一种查找人脸照片的方法
CN106249895A (zh) * 2016-08-09 2016-12-21 清华大学 一种机器人识别环境变化时的人机交互方法以及系统
CN108614987A (zh) * 2016-12-13 2018-10-02 深圳光启合众科技有限公司 数据处理的方法、装置和机器人

Similar Documents

Publication Publication Date Title
JP6806127B2 (ja) 検索システム、検索方法、及びプログラム
US10264870B2 (en) Makeup application assistance device, makeup application assistance system, and makeup application assistance method
CN109767258A (zh) 基于眼部图像识别的智能导购方法及装置
CN103942705A (zh) 一种基于人脸识别的广告分类匹配推送方法及系统
KR20210088600A (ko) 전시 영역 상태 인식 방법, 장치, 전자 디바이스 및 기록 매체
CN109558535A (zh) 基于人脸识别的个性化推送物品的方法及系统
US20170047096A1 (en) Video generating system and method thereof
CN110772177B (zh) 信息处理方法、信息处理装置以及记录介质
WO2019205491A1 (zh) 基于服饰试穿的信息处理方法和装置
CN105335750A (zh) 客户身份识别系统及识别方法
CN107067290A (zh) 数据处理方法及装置
CN107729380A (zh) 服饰搭配方法、终端、计算机终端
CN106529375A (zh) 移动终端及其图像中物体特征的识别方法
CN101751566A (zh) 一种基于手持设备的菜谱识别及注解方法和装置
CN107948737A (zh) 电视节目的推荐方法及装置
JP7018408B2 (ja) 画像検索装置および教師データ抽出方法
CN106067224A (zh) 用于快递柜的身份认证方法、身份认证系统以及快递柜
CN107395730A (zh) 一种信息推送方法及装置
CN105843570A (zh) 保护隐私的显示方法和装置
CN108920123A (zh) 信息的显示方法、装置、存储介质和处理器
CN110973846A (zh) 一种智能衣柜
CN106773852A (zh) 智能镜子及其工作控制方法、装置
CN107578018A (zh) 基于情感识别的试衣满意度处理方法、系统及智能试衣镜
CN103927391A (zh) 信息处理方法及装置
CN104898835A (zh) 一种信息处理方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190129