CN110653812B - 一种机器人的交互方法、机器人及具有存储功能的装置 - Google Patents
一种机器人的交互方法、机器人及具有存储功能的装置 Download PDFInfo
- Publication number
- CN110653812B CN110653812B CN201810713466.4A CN201810713466A CN110653812B CN 110653812 B CN110653812 B CN 110653812B CN 201810713466 A CN201810713466 A CN 201810713466A CN 110653812 B CN110653812 B CN 110653812B
- Authority
- CN
- China
- Prior art keywords
- human body
- body information
- information
- robot
- preset range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
本申请公开了一种机器人的交互方法、机器人及具有存储功能的装置,该交互方法包括:检测预设范围内是否存在人体信号;若是,则启动摄像头,以捕捉至少一个外部场景图像;从外部场景图像中提取第一人体信息;判断第一人体信息是否与样本匹配;根据判断结果启动对应的交互模式。通过上述交互方法,本申请克服了现有技术中无法对陌生人进行识别的问题,并能够在识别出陌生人的同时,实现机器人与陌生人的正常交互。
Description
技术领域
本申请涉及机器人控制领域,特别是涉及一种机器人的交互方法、机器人及具有存储功能的装置。
背景技术
机器人是自动执行工作的机器装置。机器人可以接受人类指挥,也可以运行预先编排的程序,还可以依据人工智能技术制定的原则行动。目前,机器人可以协助或代替人类从事例如生产、建造等枯燥、笨重的工作,因而应用日益广泛。
目前,随着科学技术的快速发展,机器人可以语音识别,也可以面部识别,从而实现与人类的交互行为。
本申请的发明人在长期的研发过程中发现,机器人捕捉到陌生人后,识别不出陌生人,因此无法实现机器人与陌生人的正常交互。
申请内容
本申请提供一种机器人的交互方法、机器人及具有存储功能的装置,能够针对不同的用户身份,启动对应的交互模式,从而能够在识别出陌生人的同时,实现机器人与陌生人的正常交互。
为解决上述技术问题,本申请提供了一种机器人的交互方法,该交互方法包括:检测预设范围内是否存在人体信号;若是,则启动摄像头,以捕捉至少一个外部场景图像;从外部场景图像中提取第一人体信息;判断第一人体信息是否与样本匹配;根据判断结果启动对应的交互模式。
为解决上述技术问题,本申请还提供了一种机器人,该机器人包括摄像头、传感器、处理器以及存储器,处理器分别耦接摄像头、传感器、处理器以及存储器;传感器用于检测预设范围内是否存在人体信号;若是,则处理器用于启动摄像头,摄像头用于捕捉至少一个外部场景图像;处理器用于从外部场景图像中提取第一人体信息,并判断第一人体信息是否与样本匹配,根据判断结果启动对应的交互模式;存储器用于存储外部场景图像、样本和交互模式。
为解决上述技术问题,本申请还提供了一种具有存储功能的装置,该装置存储有程序数据,程序数据能够被执行以实现如上的方法。
区别现有技术,本申请通过从外部场景图像中提取第一人体信息;并判断第一人体信息是否与样本匹配,以识别出该第一人体信息所对应用户为陌生人用户或熟人用户,并能够针对不同的用户身份,启动对应的交互模式。因此,本申请克服了现有技术中无法对陌生人进行识别的问题,并能够在识别出陌生人的同时,实现机器人与陌生人的正常交互。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请机器人的交互方法一实施例的流程示意图;
图2是图1中步骤S10一实施例的流程示意图;
图3是图1中步骤S10另一实施例的流程示意图;
图4是图1中步骤S50一实施例的流程示意图;
图5是图1中步骤S50另一实施例的流程示意图;
图6是本申请机器人一实施例的结构示意图;
图7是本申请具有存储功能的装置一实施例的结构示意图。
具体实施例
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。可以理解的是,此处所描述的具体实施例仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参阅图1,图1是本申请机器人的交互方法一实施例的流程示意图。机器人包括摄像头,至少一个摄像头设置于机器人的外周面上,可以沿机器人的周向方向相间隔地设置以采集机器人外部的场景图像。优选地,摄像头设置在机器人的头部。
该交互方法的具体步骤如下:
步骤S10:检测预设范围内是否存在人体信号。
若是,则进入步骤S20。
在本步骤中,可以通过机器人身上安装的传感器检测预设范围内是否存在人体信号,例如红外传感器、声音传感器、距离传感器、温度传感器、加速度传感器或气味传感器等等。根据不同的使用场合或者功能,对这些传感器会有根据的进行选择,对应地,这些传感器相当于机器人的“感觉”器官,获得的传感器数据则为其“感觉”。当机器人获取到这些原始数据之后,可以将其上传交给云端服务器进行进一步的处理,或者通过机器人自身的处理器进行数据处理,以检测预设范围内是否存在人体信号。对应不同的传感器,人体信号可以为人体红外信号、人体温度信号、人声信号等等,在此不做限定。其中,在本实施例中预设范围可以设置为以机器人自身为中心的半径为2m的圆,在其他实施例也可设置其他范围。
步骤S20:启动摄像头,以捕捉至少一个外部场景图像。
在本步骤中,检测预设范围内存在人体信号后,启动摄像头捕捉至少一个外部场景图像。通过机器人身上安装的摄像头获取到的视频内容,表现在机器设备上则是视频流,作为拟人化的描述则是机器人“看到”的图像,例如摄像头记录到一段外部场景视频或至少一张外部场景图像。
步骤S30:从外部场景图像中提取第一人体信息。
在本步骤中,第一人体信号为人体的生物特征信号,可以包括用户的人脸2D图像、人脸3D图像、虹膜、指静脉和指纹中的至少一种,也可以包括其他生物特征信号(如掌纹等),此处不做具体限定。处理器可以在捕捉至少一个外部场景图像的同时,开始提取第一人体信息。此时,机器人可以通过图像处理、图像检测技术对外部场景图像中不同姿态的行人进行生物特征提取分析,以提取第一人体信息。
步骤S40:判断第一人体信息是否与样本匹配。
在本步骤中,样本为程序员提前在存储器中预存的人体信息样本。本地存储器或云端存储器中保存有事先收集的人体信息,并在存储器中存储有人体信息的表达,包括人体信息的特征点、特征点的特征值、以及人体信息对应的身份信息(即人体信息是谁的人体信息)。所有在存储器中的人体信息被认为是已注册的人体信息(即熟人的人体信息)。
其中,步骤S40包括:将第一人体信息与样本进行比对,其中,人体信息包括人脸特征信息、虹膜特征信息或指纹特征信息中的至少一种。
通过将所提取的第一人体信息的特征点和/或特征值与存储器中人体信息样本的特征点和/或特征值进行比对,确定待识别的第一人体信息的身份信息是否为陌生人,即第一人体信息是否为已注册的人体信息,若第一人体信息不是已注册的人体信息,则第一人体信息的身份信息为陌生人。
步骤S50:根据判断结果启动对应的交互模式。
在本步骤中,机器人能够根据不同的判断结果切换不同的交互模式。例如,对于步骤S40中已注册的人体信息(即熟人的人体信息),交互模式可以被配置为向用户打招呼或者呼唤用户的名字,跟随用户运动。对于步骤S40中未注册的人体信息(即陌生人的人体信息),交互模式可以被配置为向用户询问其身份信息等。在此不做限定。
本实施例通过从外部场景图像中提取第一人体信息,并判断第一人体信息是否与样本匹配,以识别出该第一人体信息所对应用户为陌生人用户或熟人用户,并能够针对不同的用户身份,启动对应的交互模式。因此,本实施例克服了现有技术中无法对陌生人进行识别的问题,并能够在识别出陌生人的同时,实现机器人与陌生人的正常交互。
请参阅图2,图2是图1中步骤S10一实施例的流程示意图。机器人包括红外传感器,步骤S10包括:
子步骤S101:启动红外传感器,检测预设范围内的红外感应信号。
在本步骤中,红外传感器可以检测环境和人体的红外感应信号、环境温度和人体体表温度。
子步骤S102:判断检测到的红外感应信号是否与预设人体红外感应信号匹配。
若是,则进入子步骤S103。
在本步骤中,预设人体红外感应信号为程序员提前在存储器中预存的人体红外感应信号或/和人体体表温度。在检测到的红外感应信号与预设人体红外感应信号匹配时,进入子步骤S103。
子步骤S103:判定预设范围内存在人体信号。
请参阅图3,图3是图1中步骤S10另一实施例的流程示意图。机器人包括麦克风,至少一个麦克风设置于机器人的外周面上,可以沿机器人的周向方向相间隔地设置以采集机器人外部的音频信号。
步骤S10包括:
子步骤S111:启动麦克风,采集外部场景中的音频信号。
子步骤S112:对音频信号进行信号成分分析,以判断音频信号中是否存在人声信号。
若是,则进入子步骤S113。
在本步骤中,机器人中设置有对音频信号进行解码分析的处理器,接收麦克风采集的音频信号,识别音频信号中的人声信号。对人声信号进行回音消除,对音频信号中的非人声信号的其他噪声进行判断,对该部分的噪声进行减弱、消除,得到具有清晰人声信号的音频流。
子步骤S113:在音频信号中存在人声信号时,识别人声信号的方位信息。
在本步骤中,判断人声所处的角度、距离以及方位,其中,解码模块130可根据麦克风阵列中接收到人声信号的麦克风与其他麦克风之间的相对位置,来确认人声信号所处的角度、距离以及方位。
子步骤S114:判断人声信号的方位信息是否在预设范围内。
若是,则进入子步骤S115。
在本步骤中,根据步骤S114中得到的人声信号所处的角度、距离以及方位,与预设范围进行比对,以判断人声信号的方位信息是否在预设范围内。
子步骤S115:判定预设范围内存在人体信号。
请参阅图4,图4是图1中步骤S50一实施例的流程示意图。
步骤S50包括:
子步骤S501:在第一人体信息与样本不匹配时,调整摄像头的朝向,以捕捉预设范围内的至少一个周围场景图像。
在本步骤中,周围场景为第一人体信息所在的外部场景图像区域的预设距离范围内的场景。通过调整摄像头的朝向,采集机器人周围场景的图像。其中,在本实施例中预设距离范围可以设置为以机器人自身为中心的半径为3m的圆,在其他实施例也可设置其他范围。周围场景图像的捕捉过程与外部场景图像的捕捉过程相同,具体请参见上述实施例,在此不再赘述。
子步骤S502:从周围场景图像中提取第二人体信息,第二人体信息与样本匹配。
在本步骤中,第二人体信息的提取过程与第一人体信息的提取过程相同,具体请参见上述实施例,在此不再赘述。第二人体信息与样本匹配,即第二人体信息为存储在存储器中的人体信息(已注册的人体信息)。
子步骤S503:向第二人体信息对应的用户输出身份问题对话。
在本步骤中,身份问题对话可以为向第二人体信息对应的用户询问第一人体信息对应的用户的身份信息,以得知第一人体信息是谁的人体信息。例如,在机器人的存储器中预先存有身份问题对话模版,通过身份问题对话模版,可以向第二人体信息对应的用户询问第一人体信息对应的用户的身份信息。
子步骤S504:接收第二人体信息对应的用户对身份问题对话的应答对话。
在本步骤中,接收第二人体信息对应的用户对身份问题对话的应答对话后,可以响应该应答对话生成对应的文本信息。例如,对经去噪预处理后的应答对话进行语音识别的综合分析,生成与应答对话对应的文本信息。
子步骤S505:提取应答对话中的身份信息数据。
在本步骤中,身份信息数据为第一人体信息对应的用户身份信息。可以对子步骤S504中的文本信息进行文本分析,即获取文本的具体语义内容。在获取识别结果之后,利用自然语言处理技术对识别结果进行语义解析。在语义理解之后,可以通过提取文本信息中与身份信息相关的特定词汇来确定第一人体信息对应的用户身份信息。特定词汇可以为事先已被设定好的与身份信息相关的词汇或短语,例如,“名字”、“姓名”、“他是”、“他叫”等内容。而且,本领域技术人员可以根据当前网络技术用语或用户需求更新或添加特定词汇。
子步骤S506:建立身份信息数据与第一人体信息的对应关系。
在本步骤中,将子步骤S505中提取得到的第一人体信息对应的用户身份信息与第一人体信息组成一个用户身份标识,从而建立身份信息数据与第一人体信息的对应关系。
子步骤S507:保存第一人体信息和对应关系。
在本步骤中,将子步骤S506中第一人体信息和用户身份标识保存到机器人的本地存储器或云端存储器中,以使存储器中第一人体信息的特征点、特征点的特征值、以及第一人体信息对应的身份信息,从而完成人体信息的注册。
请参阅图5,图5是图1中步骤S50另一实施例的流程示意图。
步骤S50包括:
子步骤S511:在第一人体信息与样本匹配时,根据第一人体信息的位置调整机器人的面部朝向,以使机器人对第一人体信息对应的用户进行追踪。
在本步骤中,在第一人体信息与样本匹配时,根据第一人体信息的位置调整机器人的面部朝向,以使机器人对第一人体信息对应的用户进行追踪,且可以跟随用户运动。
子步骤S512:向第一人体信息对应的用户输出身份认证对话。
在本步骤中,身份认证对话可以为向第一人体信息对应的用户确认其身份信息,例如身份认证对话可以为向用户打招呼,呼唤用户的名字。
为实现上述交互方法,本申请提供了一种机器人,具体结构请参阅图6,图6是本申请机器人一实施例的结构示意图。其中机器人300包括摄像头301、传感器302、处理器303以及存储器304,处理器303分别耦接摄像头301、传感器302、处理器303以及存储器304。
传感器302用于检测预设范围内是否存在人体信号。
若是,则处理器303用于启动摄像头301,摄像头301用于捕捉至少一个外部场景图像。
处理器303用于从外部场景图像中提取第一人体信息,并判断第一人体信息是否与样本匹配,根据判断结果启动对应的交互模式。
存储器304用于存储外部场景图像、样本和交互模式。
可选地,在一实施例中,机器人300还可以包括扬声器305和麦克风306,处理器303分别耦接扬声器305和麦克风306。
处理器303用于在第一人体信息与样本不匹配时,调整摄像头301的朝向。
摄像头301用于捕捉预设范围内的至少一个周围场景图像。
处理器303还用于从周围场景图像中提取第二人体信息,第二人体信息与样本匹配。
扬声器305用于向第二人体信息对应的用户输出身份问题对话。
麦克风306用于接收第二人体信息对应的用户对身份问题对话的应答对话。
处理器303还用于提取应答对话中的身份信息数据,并建立身份信息数据与第一人体信息的对应关系。
存储器304用于保存对应关系和第一人体信息。
可选地,在一实施例中,处理器303还用于第一人体信息与样本进行比对。其中,人体信息包括人脸特征信息、虹膜特征信息或指纹特征信息中的至少一种。
可选地,在一实施例中,在第一人体信息与样本匹配时,处理器303还用于根据第一人体信息的位置调整机器人的面部朝向,摄像头301用于对第一人体信息对应的用户进行追踪,
扬声器305用于向第一人体信息对应的用户输出身份认证对话。
可选地,在一实施例中,传感器302为红外传感器302,处理器303用于启动红外传感器302,红外传感器302用于检测预设范围内的红外感应信号。
处理器303还用于判断检测到的红外感应信号是否与预设人体红外感应信号匹配,若是,则判定预设范围内存在人体信号。
可选地,在一实施例中,处理器303用于启动麦克风306。
麦克风306用于采集外部场景中的音频信号。
处理器303还用于对音频信号进行信号成分分析,以判断音频信号中是否存在人声信号。
在音频信号中存在人声信号时,处理器303还用于识别人声信号的方位信息,判断人声信号的方位信息是否在预设范围内,若是,则判定预设范围内存在人体信号。
参阅图7,图7是本申请具有存储功能的装置一实施方式的结构示意图。本实施方式中,一种具有存储功能的装置40,存储有程序数据41,该程序数据41能够被执行以实现如上述本申请机器人的交互方法实施方式中的步骤,相关内容的详细说明请参见上述方法部分,在此不再赘述。
该程序数据41能够被计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行以实现本申请语音指令自动化测试方法的全部或部分步骤。而前述的具有存储功能的装置40包括:服务器、U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、磁碟或者光盘等各种可以存储程序代码的装置。
以上仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (8)
1.一种机器人的交互方法,其特征在于,所述机器人包括摄像头,所述交互方法包括:
检测预设范围内是否存在人体信号;
若是,则启动所述摄像头,以捕捉至少一个外部场景图像;
从所述外部场景图像中提取第一人体信息;
判断所述第一人体信息是否与样本匹配;
根据判断结果启动对应的交互模式;
其中,所述根据判断结果启动对应的交互模式包括:
在所述第一人体信息与所述样本不匹配时,调整所述摄像头的朝向,以捕捉预设范围内的至少一个周围场景图像;
从所述周围场景图像中提取第二人体信息,所述第二人体信息与样本匹配;
向所述第二人体信息对应的用户输出身份问题对话;
接收所述第二人体信息对应的用户对所述身份问题对话的应答对话;
提取所述应答对话中的身份信息数据;
建立所述身份信息数据与所述第一人体信息的对应关系;
保存所述第一人体信息和所述对应关系。
2.根据权利要求1所述的交互方法,其特征在于,所述判断所述第一人体信息是否与样本匹配,包括:
将所述第一人体信息与所述样本进行比对;
其中,所述第一人体信息包括人脸特征信息、虹膜特征信息或指纹特征信息中的至少一种。
3.根据权利要求1所述的交互方法,其特征在于,所述根据判断结果启动对应的交互模式,包括:
在所述第一人体信息与所述样本匹配时,根据所述第一人体信息的位置调整所述机器人的面部朝向,以使所述机器人对所述第一人体信息对应的用户进行追踪;
向所述第一人体信息对应的用户输出身份认证对话。
4.根据权利要求1所述的交互方法,其特征在于,所述机器人包括红外传感器,所述检测预设范围内是否存在人体信号,包括:
启动所述红外传感器,检测所述预设范围内的红外感应信号;
判断检测到的所述红外感应信号是否与预设人体红外感应信号匹配;
若是,则判定所述预设范围内存在所述人体信号。
5.根据权利要求1所述的交互方法,其特征在于,所述机器人包括麦克风,所述检测预设范围内是否存在人体信号,包括:
启动所述麦克风,采集外部场景中的音频信号;
对所述音频信号进行信号成分分析,以判断所述音频信号中是否存在人声信号;
在所述音频信号中存在人声信号时,识别所述人声信号的方位信息;
判断所述人声信号的方位信息是否在所述预设范围内;
若是,则判定所述预设范围内存在所述人体信号。
6.一种机器人,其特征在于,所述机器人包括摄像头、传感器、处理器、扬声器、麦克风以及存储器,所述处理器分别耦接所述摄像头、所述传感器、扬声器、麦克风以及所述存储器;
所述传感器用于检测预设范围内是否存在人体信号;
若是,则所述处理器用于启动所述摄像头,所述摄像头用于捕捉至少一个外部场景图像;
所述处理器用于从所述外部场景图像中提取第一人体信息,并判断所述第一人体信息是否与样本匹配,根据判断结果启动对应的交互模式;
所述处理器用于在所述第一人体信息与所述样本不匹配时,调整所述摄像头的朝向;
所述摄像头用于捕捉预设范围内的至少一个周围场景图像;
所述处理器还用于从所述周围场景图像中提取第二人体信息,所述第二人体信息与样本匹配;
所述扬声器用于向所述第二人体信息对应的用户输出身份问题对话;
所述麦克风用于接收所述第二人体信息对应的用户对所述身份问题对话的应答对话;
所述处理器还用于提取所述应答对话中的身份信息数据,并建立所述身份信息数据与所述第一人体信息的对应关系;
所述存储器用于保存所述对应关系和所述第一人体信息;
所述存储器还用于存储所述外部场景图像、所述样本和所述交互模式。
7.根据权利要求6所述的机器人,其特征在于,所述传感器为红外传感器,所述处理器用于启动所述红外传感器,所述红外传感器用于检测所述预设范围内的红外感应信号;
所述处理器还用于判断检测到的所述红外感应信号是否与预设人体红外感应信号匹配,若是,则判定所述预设范围内存在所述人体信号。
8.一种具有存储功能的装置,其特征在于,所述装置存储有程序数据,所述程序数据能够被执行以实现如权利要求1至5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810713466.4A CN110653812B (zh) | 2018-06-29 | 2018-06-29 | 一种机器人的交互方法、机器人及具有存储功能的装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810713466.4A CN110653812B (zh) | 2018-06-29 | 2018-06-29 | 一种机器人的交互方法、机器人及具有存储功能的装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110653812A CN110653812A (zh) | 2020-01-07 |
CN110653812B true CN110653812B (zh) | 2021-06-04 |
Family
ID=69027085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810713466.4A Active CN110653812B (zh) | 2018-06-29 | 2018-06-29 | 一种机器人的交互方法、机器人及具有存储功能的装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110653812B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110861107B (zh) * | 2019-12-03 | 2020-12-22 | 北京海益同展信息科技有限公司 | 服务机器人及其显示控制方法、控制器和存储介质 |
CN111730602B (zh) * | 2020-07-20 | 2020-12-04 | 季华实验室 | 机械臂安全防护方法、装置、存储介质及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202753149U (zh) * | 2011-12-26 | 2013-02-27 | 尚娜 | 具有人脸识别功能的智能机器人 |
CN202985566U (zh) * | 2012-07-26 | 2013-06-12 | 王云 | 基于人脸识别的安保机器人 |
CN105760824A (zh) * | 2016-02-02 | 2016-07-13 | 北京进化者机器人科技有限公司 | 一种运动人体跟踪方法和系统 |
CN106503615A (zh) * | 2016-09-20 | 2017-03-15 | 北京工业大学 | 基于多传感器的室内人体检测跟踪和身份识别系统 |
CN106650656A (zh) * | 2016-12-16 | 2017-05-10 | 中新智擎有限公司 | 一种用户身份识别装置和机器人 |
CN106695810A (zh) * | 2016-11-25 | 2017-05-24 | 塔米智能科技(北京)有限公司 | 一种基于视觉的迎宾服务机器人及工作方法 |
-
2018
- 2018-06-29 CN CN201810713466.4A patent/CN110653812B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202753149U (zh) * | 2011-12-26 | 2013-02-27 | 尚娜 | 具有人脸识别功能的智能机器人 |
CN202985566U (zh) * | 2012-07-26 | 2013-06-12 | 王云 | 基于人脸识别的安保机器人 |
CN105760824A (zh) * | 2016-02-02 | 2016-07-13 | 北京进化者机器人科技有限公司 | 一种运动人体跟踪方法和系统 |
CN106503615A (zh) * | 2016-09-20 | 2017-03-15 | 北京工业大学 | 基于多传感器的室内人体检测跟踪和身份识别系统 |
CN106695810A (zh) * | 2016-11-25 | 2017-05-24 | 塔米智能科技(北京)有限公司 | 一种基于视觉的迎宾服务机器人及工作方法 |
CN106650656A (zh) * | 2016-12-16 | 2017-05-10 | 中新智擎有限公司 | 一种用户身份识别装置和机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN110653812A (zh) | 2020-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10019992B2 (en) | Speech-controlled actions based on keywords and context thereof | |
TWI706268B (zh) | 身份認證方法和裝置 | |
CN112074901B (zh) | 语音识别登入 | |
KR102041063B1 (ko) | 정보 처리 장치, 정보 처리 방법 및 프로그램 | |
CN106599866B (zh) | 一种多维度用户身份识别方法 | |
WO2016150001A1 (zh) | 语音识别的方法、装置及计算机存储介质 | |
US10262655B2 (en) | Augmentation of key phrase user recognition | |
CN112037791B (zh) | 会议纪要转录方法、设备和存储介质 | |
CN103456299B (zh) | 一种控制语音识别的方法和装置 | |
WO2017031860A1 (zh) | 基于人工智能的智能交互设备控制方法及系统 | |
CN112088403A (zh) | 使用神经网络的说话人识别/定位 | |
CN111048113B (zh) | 声音方向定位处理方法、装置、系统、计算机设备及存储介质 | |
CN109558788B (zh) | 静默语音输入辨识方法、计算装置和计算机可读介质 | |
CN111199032A (zh) | 身份认证的方法以及装置 | |
KR20100086262A (ko) | 로봇 및 그 제어방법 | |
US10325600B2 (en) | Locating individuals using microphone arrays and voice pattern matching | |
CN110653812B (zh) | 一种机器人的交互方法、机器人及具有存储功能的装置 | |
WO2017219450A1 (zh) | 一种信息处理方法、装置及移动终端 | |
WO2020140840A1 (zh) | 用于唤醒可穿戴设备的方法及装置 | |
CN111326152A (zh) | 语音控制方法及装置 | |
JP2010197998A (ja) | 音声信号処理システムおよび該システムを備えた自律ロボット | |
KR102433964B1 (ko) | 관계 설정을 이용한 실감형 인공지능기반 음성 비서시스템 | |
CN113643707A (zh) | 一种身份验证方法、装置和电子设备 | |
JP7032284B2 (ja) | ユーザの顔の映像に基づいて発動タイミングを推定する装置、プログラム及び方法 | |
KR20210039583A (ko) | 멀티모달 기반 사용자 구별 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |