CN107498555A - 一种动作透传方法、装置及机器人 - Google Patents
一种动作透传方法、装置及机器人 Download PDFInfo
- Publication number
- CN107498555A CN107498555A CN201710685247.5A CN201710685247A CN107498555A CN 107498555 A CN107498555 A CN 107498555A CN 201710685247 A CN201710685247 A CN 201710685247A CN 107498555 A CN107498555 A CN 107498555A
- Authority
- CN
- China
- Prior art keywords
- action
- human body
- user
- body contour
- contour outline
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Abstract
本申请提供了一种动作透传方法、装置及机器人,通过对接收到的用户输入指令进行应用模式确定,可以针对用户输入的不同类型指令,采用与之匹配的应用模式进行处理,进而生成与用户输入指令所对应的动作指令,以便机器人能够准确识别出用户当前想要控制其执行的动作任务,并通过执行与生成的动作指令所对应的相关动作,来实现机器人与用户之间的人机交互,同时在用户控制条件下,增加了机器人所能执行的动作种类,有效提高了机器人的智能化程度。
Description
技术领域
本发明涉及机器人控制技术领域,更具体的说,是涉及一种动作透传方法、装置及机器人。
背景技术
随着科技的飞速跃进,机器人被广泛应用于多个领域,且逐渐向智能化方向发展。
目前,机器人可以在开启状态下,通过运行自身预先编写的程序,来执行相应的动作指令,以完成各种任务。然而现今市面上的机器人只能重复执行与自身预置程序所对应的动作,如扫地,动作类型较为单一,且与用户之间无法交互,进而无法接受用户的实时指挥,来完成用户当前所需的动作任务。
发明内容
有鉴于此,本发明提供了一种动作透传方法、装置及机器人,解决了机器人不能与用户进行交互的问题,进而提高了机器人的智能化程度。
为实现上述目的,本发明提供如下技术方案:
一种动作透传方法,应用于机器人,包括:
在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,所述用户输入指令包括动作按键值或用户动作图像;
依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令;
执行对应所述动作指令的动作。
优选地,所述对应所述用户输入指令的应用模式,包括:
对应所述动作按键值的动作匹配模式;或者,
对应所述用户动作图像的动作图像识别模式。
优选地,当所述应用模式为动作匹配模式时,所述依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令,包括:
从第一动作库中匹配出对应所述动作按键值的动作指令。
优选地,当所述应用模式为动作图像识别模式时,所述依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令,包括:
对所述用户动作图像进行人体特征提取,获得人体轮廓图像;
构建所述人体轮廓图像对应的人体轮廓模型;
从第二动作库中匹配出对应所述人体轮廓模型的动作指令。
优选地,所述从第二动作库中匹配出对应所述人体轮廓模型的动作指令,包括:
将所述人体轮廓模型与所述第二动作库中的预设人体轮廓模型进行相似度对比,获得目标相似度;
判断所述目标相似度是否达到预设相似度;
若所述目标相似度达到所述预设相似度,将所述预设人体轮廓模型对应的动作指令,作为对应所述人体轮廓模型的动作指令。
一种动作透传装置,应用于机器人,包括:
模式确定模块,用于在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,所述用户输入指令包括动作按键值或用户动作图像;
生成模块,用于依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令;
执行模块,用于执行对应所述动作指令的动作。
优选地,所述对应所述用户输入指令的应用模式,包括:
对应所述动作按键值的动作匹配模式;或者,
对应所述用户动作图像的动作图像识别模式。
优选地,所述生成模块包括:
第一匹配单元,用于在所述应用模式为动作匹配模式时,从第一动作库中匹配出对应所述动作按键值的动作指令。
优选地,所述生成模块包括:
特征提取单元,用于在所述应用模式为动作图像识别模式时,对所述用户动作图像进行人体特征提取,获得人体轮廓图像;
模型构建单元,用于构建所述人体轮廓图像对应的人体轮廓模型;
第二匹配单元,用于从第二动作库中匹配出对应所述人体轮廓模型的动作指令。
优选地,所述第二匹配单元包括:
对比子单元,用于将所述人体轮廓模型与所述第二动作库中的预设人体轮廓模型进行相似度对比,获得目标相似度;
判断子单元,用于判断所述目标相似度是否达到预设相似度;
选择子单元,用于若所述目标相似度达到所述预设相似度,将所述预设人体轮廓模型对应的动作指令,作为对应所述人体轮廓模型的动作指令。
一种机器人,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于处理所述程序;其中,所述程序包括:
在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,所述用户输入指令包括动作按键值或用户动作图像;
依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令;
执行对应所述动作指令的动作。
经由上述的技术方案可知,与现有技术相比,本发明提供了一种动作透传方法、装置及机器人,通过对接收到的用户输入指令进行应用模式确定,可以针对用户输入的不同类型指令,采用与之匹配的应用模式进行处理,进而生成与用户输入指令所对应的动作指令,以便机器人能够准确识别出用户当前想要控制其执行的动作任务,并通过执行与生成的动作指令所对应的相关动作,来实现机器人与用户之间的人机交互,同时在用户控制条件下,增加了机器人所能执行的动作种类,有效提高了机器人的智能化程度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种动作透传方法的方法流程图;
图2为本发明实施例提供的另一种动作透传方法的方法流程图;
图3为本发明实施例提供的另一种动作透传方法的方法流程图;
图4为本发明实施例提供的一种动作指令匹配方法的方法流程图;
图5为本发明实施例提供的一种动作透传装置的结构示意图;
图6为本发明实施例提供的另一种动作透传装置的结构示意图;
图7为本发明实施例提供的另一种动作透传装置的结构示意图;
图8为本发明实施例提供的一种动作指令匹配装置的结构示意图;
图9为本发明实施例提供的一种机器人的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种动作透传方法,应用于机器人,请参见附图1,所述方法具体包括以下步骤:
S101:在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,所述用户输入指令包括动作按键值或用户动作图像;
具体的,用户输入指令包括动作按键值或用户动作图像,可以是通过网络从用户所持电子设备上接收到的;也可以是用户直接对机器人进行输入,以使机器人接收到对应指令。其中,电子设备可以是智能手机、平板电脑、计算机、智能穿戴设备等,电子设备与机器人之间的距离本方案并不限定,从而实现了机器人与所持电子设备的用户之间能够进行远程的人机交互,有效解决了机器人因距离限制而无法被用户控制的问题。用户直接对机器人进行输入的方式可以是用户通过机器人上的输入设备完成输入,其中,输入设备可以是实体设备,也可以是虚拟设备。
针对接收到的不同用户输入指令,可以为其匹配各自对应的应用模式,进而执行不同应用模式下的相应处理操作,以增加机器人与用户之间人机交互呈现方式的多样性。其中,应用模式与用户输入指令之间存在一一对应关系,从而机器人可以依据用户输入指令,快速匹配出与之具有对应关系的应用模式。
S102:依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令;
具体的,针对应用模式的不同,可以生成与之对应的动作指令,从而在实现了机器人与用户之间人机互动的基础上,增加了机器人所能执行动作的种类,使机器人的功能更符合用户的使用需求。
动作指令可以是包含有机器人动作的指令,如“抬头指令”、“原地转圈信息指令”等。其中,动作指令包含的机器人动作可以是一种动作,也可以是多种动作的组合。
S103:执行对应所述动作指令的动作;
具体的,依据生成的动作指令,可以控制机器人执行对应的动作。如动作指令为“抬左腿指令”,则机器人控制其左腿抬高以完成相应的动作。
由于生成的动作指令可以包含一种动作,也可以包含多种动作,因此,机器人可以执行一种相应的动作,也可以依次执行相应的多种动作。其中,当动作指令包含多种动作时,机器人可以按照动作指令中多种动作的优先级顺序或用户输入指令中多种动作的存储先后顺序,依次执行。
本发明实施例所公开的一种动作透传方法,应用于机器人,通过对接收到的用户输入指令进行应用模式确定,可以针对用户输入的不同类型指令,采用与之匹配的应用模式进行处理,进而生成与用户输入指令所对应的动作指令,以便机器人能够准确识别出用户当前想要控制其执行的动作任务,并通过执行与生成的动作指令所对应的相关动作,来实现机器人与用户之间的人机交互,同时在用户控制条件下,增加了机器人所能执行的动作种类,有效提高了机器人的智能化程度。
在上述附图1所对应实施例的基础上,本发明实施例公开了另一种动作透传方法,应用于机器人,请参见附图2,所述方法具体包括以下步骤:
S201:在接收到动作按键值时,确定对应所述动作按键值的动作匹配模式;
具体的,当用户输入指令为动作按键值时,机器人可以迅速匹配出与之对应的动作匹配模式,以便执行动作匹配模式下的相关操作。
动作按键值可以是用户通过所持电子设备发送到机器人上的与动作相关的按键值,或是用户直接输入到机器人上的与动作相关的按键值,主要作为匹配依据,从第一动作库中获取对应的动作指令。其中,动作按键值可以是仅代表一个动作的按键值,也可以是代表多个动作的按键值组合。
下面针对用户输入指令为动作按键值时,该动作按键值仅代表一个动作的按键值进行举例说明,用户想要机器人执行的动作为“向前走”,则可以点击代表“向前走”这一动作的按键“2”,以使机器人通过接收到“2”这一动作按键值,来及时获知用户当前想要控制机器人执行向前走这一具体动作。
针对用户输入指令为动作按键值时,该动作按键值代表多个动作的按键值组合进行举例说明,用户想要机器人执行的动作分别为“抬头”、“向前走”和“转圈”,则可以依次点击分别代表“抬头”、“向前走”和“转圈”这三个动作的相应按键“1”、“2”和“5”,以使机器人通过接收到由“1”、“2”和“5”这三个按键值组合的动作按键值,来及时获知用户当前想要控制机器人执行抬头、向前走、之后转圈这三个具体动作。
S202:从第一动作库中匹配出对应所述动作按键值的动作指令;
具体的,第一动作库可以预先建立,主要用于存放对应动作按键值的动作指令,如向前走指令,向后退指令,左转指令,右转指令,转圈指令,抬头指令,低头指令,向左看指令,向右看指令,摇头指令,点头指令,跳舞指令等。第一动作库中的动作指令与所对应动作按键值之间具有关联关系,从而通过接收到的动作按键值,可以快速从动作库中匹配出与该动作按键值具有关联关系的动作指令。
仍以动作按键值为“2”为例进行具体阐述,从第一动作库中匹配出与动作按键值“2”具有关联关系的动作指令“向前走指令”,作为用户当前想要控制机器人执行的动作。
需要说明的是,由于S201中动作按键值可以是代表一个动作的按键值,也可以是代表多个动作的按键值组合,因此,从第一动作库中匹配出对应该动作按键值的动作指令可以是一个动作指令,也可以是多个动作指令的组合。
S203:执行对应所述动作指令的动作。
本发明实施例所公开的一种动作透传方法,应用于机器人,通过在用户输入指令为动作按键值时,从第一动作库中匹配出对应该动作按键值的动作指令,并执行对应该动作指令的动作;可见,用户通过输入动作按键值来控制机器人执行对应的动作,使机器人更易识别出用户当前所需机器人执行的指令任务,加快了机器人的动作执行速率,同时,方便用户对机器人进行指令输入,提高用户使用体验。
在上述附图1所对应实施例的基础上,本发明实施例公开了另一种动作透传方法,应用于机器人,请参见附图3,所述方法具体包括以下步骤:
S301:在接收到用户动作图像时,确定对应所述用户动作图像的动作图像识别模式;
具体的,当用户输入指令为用户动作图像时,机器人可以迅速匹配出与之对应的动作图像识别模式,以便执行动作图像识别模式下的相关操作。
用户动作图像是包含有用户部分或全部身体结构的图像;该用户动作图像可以是用户所持电子设备实时拍摄或预存的图像,通过网络传输至机器人的,也可以是用户开启机器人的摄像头拍摄的图像。
需要说明的是,当用户想要控制机器人执行一个或多个动作时,可以通过输入到机器人的用户动作图像使其获知。也就是说,机器人会通过用户动作图像识别出一个动作或多个动作。例如用户动作图像呈现出的画面内“用户身体中的头向右侧偏移,左腿抬起”,则机器人通过该用户动作图像就可以识别出其应该执行“头向右看”和“左腿抬起”这两个动作。
S302:对所述用户动作图像进行人体特征提取,获得人体轮廓图像;
具体的,人体特征是指与人体结构相关的特征,主要作为提取依据,从用户动作图像所呈现的画面中分割出仅与用户身体结构相关的图像信息,即人体轮廓图像。
人体特征的提取方式可以是提取与人体结构相关的灰度信息进行组合以实现。
S303:构建所述人体轮廓图像对应的人体轮廓模型;
具体的,机器人通过对获得的二维人体轮廓图像进行模型构建,可以构建出一个与真实人体结构近似的虚拟结构,以便作为匹配依据,从第二动作库中匹配出对应的动作指令。
S304:从第二动作库中匹配出对应所述人体轮廓模型的动作指令;
具体的,第二动作库可以预先建立,主要用于存放对应人体轮廓模型的动作指令,如左转指令,右转指令,抬头指令,低头指令,向左看指令,向右看指令,抬腿指令等。第二动作库中的动作指令与S303中构建的人体轮廓模型之间存在对应关系,从而能够通过构建出的人体轮廓模型,快速从该第二动作库中匹配出与之具有对应关系的动作指令。
需要说明的是,由于机器人会通过S301接收到的用户动作图像,识别出一个动作或多个动作,因此可以从第二动作库中匹配出对应的一个动作指令或多个动作指令,增加了机器人动作的执行种类。
S305:执行对应所述动作指令的动作。
本发明实施例所公开的一种动作透传方法,应用于机器人,通过在用户输入指令为用户动作图像时,对该用户动作图像进行人体特征提取,以获得人体轮廓图像,并作为构建依据,快速构建出与之相似的人体轮廓模型,之后从第二动作库中匹配出对应该人体轮廓模型的动作指令,并执行,以实现用户通过包含有人体动作的图像控制机器人执行相应的动作。可见,用户通过输入用户动作图像来控制机器人执行对应的动作,既实现了人机互动的目的,又增强了机器人的视觉感知能力,进而增加了机器人所能执行的动作种类,有效避免因机器人动作种类单一而降低用户使用体验的问题发生。
针对上述附图3所对应实施例中S304的从第二动作库中匹配出对应所述人体轮廓模型的动作指令,本发明实施例公开了一种动作指令匹配方法,应用于机器人,请参见附图4,所述方法具体包括以下步骤:
S401:将所述人体轮廓模型与所述第二动作库中的预设人体轮廓模型进行相似度对比,获得目标相似度;
具体的,预设人体轮廓模型可以预先存储到第二动作库中,并与第二动作库中动作指令之间存在一一对应关系,从而在构建出人体轮廓模型后,能够作为判断动作指令与人体轮廓模型之间是否存在对应关系的依据。
为了确保识别准确度,可以令构建出的人体轮廓模型与第二动作库中的预设人体轮廓模型进行相似度对比。换句话说,就是对比人体轮廓模型与预设人体轮廓模型在预设人体结构主要关节点上是否相符。其中,预设人体结构主要关节点可以是针对人体结构的主要关节部分而预先设置的,如肩关节、肘关节、膝关节、踝关节等。
目标相似度可以是一个用于表示人体轮廓模型与预设人体轮廓模型之间相似程度大小的百分比数值,如95%。
S402:判断所述目标相似度是否达到预设相似度,若是,则执行S403,若否,则执行S404;
具体的,预设相似度可以是预先设置的百分比数值,主要作为人体轮廓模型与预设人体轮廓模型相符的判断标准。
S403:将所述预设人体轮廓模型对应的动作指令,作为对应所述人体轮廓模型的动作指令;
具体的,在判断出目标相似度达到预设相似度时,证明人体轮廓模型与预设人体轮廓模型相符,此时能够从第二动作库中匹配出对应人体轮廓模型的动作指令,即用户可以控制机器人执行用户动作图像所呈现的相关动作。
S404:结束;
具体的,在判断出目标相似度未达到预设相似度时,证明人体轮廓模型与预设人体轮廓模型不相符,此时无法从第二动作库中匹配出对应人体轮廓模型的动作指令,即用户不可以控制机器人执行相关动作。
本发明实施例中,通过将人体轮廓模型与第二动作库中的预设人体轮廓模型进行相似度对比,获得目标相似度,并在该目标相似度达到预设相似度时,从第二动作库中匹配出对应人体轮廓模型的动作指令,以供机器人执行与之对应的动作,从而实现人机互动;可见,将人体轮廓模型与预设人体轮廓模型的相似度对比结果作为是否能够匹配出动作指令的依据,能够提高机器人的识别准确度。
本发明实施例公开了一种动作透传装置,应用于机器人,请参见附图5,包括:
模式确定模块501,用于在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,所述用户输入指令包括动作按键值或用户动作图像;
生成模块502,用于依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令;
执行模块503,用于执行对应所述动作指令的动作。
本发明实施例所公开的一种动作透传装置,应用于机器人,通过模式确定模块501对接收到的用户输入指令进行应用模式确定,可以针对用户输入的不同类型指令,采用与之匹配的应用模式进行处理,进而由生成模块502生成与用户输入指令所对应的动作指令,以便机器人能够准确识别出用户当前想要控制其执行的动作任务,并通过执行模块503执行与生成的动作指令所对应的相关动作,来实现机器人与用户之间的人机交互,同时在用户控制条件下,增加了机器人所能执行的动作种类,有效提高了机器人的智能化程度。
本发明实施例提供的各个模块的工作过程,请参照附图1所对应的方法流程图,具体工作过程不再赘述。
在上述附图1所对应实施例的基础上,本发明实施例公开了另一种动作透传装置,应用于机器人,请参见附图6,包括:
模式确定模块501,生成模块502和执行模块503;
其中,所述模式确定模块501在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,具体用于在接收到动作按键值时,确定对应所述动作按键值的动作匹配模式;
所述生成模块502包括:
第一匹配单元5021,用于在所述应用模式为动作匹配模式时,从第一动作库中匹配出对应所述动作按键值的动作指令。
本发明实施例所公开的一种动作透传装置,应用于机器人,通过在模式确定模块501接收到动作按键值时,确定出对应该动作按键值的动作匹配模式之后,第一匹配单元5021从第一动作库中匹配出对应该动作按键值的动作指令,再由执行模块503执行对应该动作指令的动作;可见,用户通过输入动作按键值来控制机器人执行对应的动作,使机器人更易识别出用户当前所需机器人执行的指令任务,加快了机器人的动作执行速率,同时,方便用户对机器人进行指令输入,提高用户使用体验。
本发明实施例提供的各个模块的工作过程,请参照附图2所对应的方法流程图,具体工作过程不再赘述。
在上述附图1所对应实施例的基础上,本发明实施例公开了另一种动作透传装置,应用于机器人,请参见附图7,包括:
模式确定模块501,生成模块502和执行模块503;
其中,所述模式确定模块501在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,具体用于在接收到用户动作图像时,确定对应所述用户动作图像的动作图像识别模式;
所述生成模块502包括:
特征提取单元5022,用于在所述应用模式为动作图像识别模式时,对所述用户动作图像进行人体特征提取,获得人体轮廓图像;
模型构建单元5023,用于构建所述人体轮廓图像对应的人体轮廓模型;
第二匹配单元5024,用于从第二动作库中匹配出对应所述人体轮廓模型的动作指令。
本发明实施例所公开的一种动作透传装置,应用于机器人,通过在模式确定模块501接收到用户动作图像时,确定出对应所述用户动作图像的动作图像识别模式之后,特征提取单元5022对该用户动作图像进行人体特征提取,以获得人体轮廓图像,并作为构建依据,由模型构建单元5023快速构建出与之相似的人体轮廓模型,之后第二匹配单元5024从第二动作库中匹配出对应该人体轮廓模型的动作指令,再由执行模块503执行该动作指令,以实现用户通过包含有人体动作的图像控制机器人执行相应的动作。可见,用户通过输入用户动作图像来控制机器人执行对应的动作,既实现了人机互动的目的,又增强了机器人的视觉感知能力,进而增加了机器人所能执行的动作种类,有效避免因机器人动作种类单一而降低用户使用体验的问题发生。
本发明实施例提供的各个模块的工作过程,请参照附图3所对应的方法流程图,具体工作过程不再赘述。
请参见附图8,上述附图7所对应实施例中的第二匹配单元5024具体包括:
对比子单元50241,用于将所述人体轮廓模型与所述第二动作库中的预设人体轮廓模型进行相似度对比,获得目标相似度;
判断子单元50242,用于判断所述目标相似度是否达到预设相似度;
选择子单元50243,用于若所述目标相似度达到所述预设相似度,将所述预设人体轮廓模型对应的动作指令,作为对应所述人体轮廓模型的动作指令。
本发明实施例中,通过对比子单元50241将人体轮廓模型与第二动作库中的预设人体轮廓模型进行相似度对比,获得目标相似度,并在判断子单元50242判断出该目标相似度达到预设相似度时,选择子单元50243将预设人体轮廓模型对应的动作指令,作为从第二动作库中匹配出对应人体轮廓模型的动作指令,以供机器人执行与之对应的动作,从而实现人机互动;可见,将人体轮廓模型与预设人体轮廓模型的相似度对比结果作为是否能够匹配出动作指令的依据,能够提高机器人的识别准确度。
本发明实施例提供的各个模块的工作过程,请参照附图4所对应的方法流程图,具体工作过程不再赘述。
本发明实施例公开了一种机器人,请参见附图9,包括存储器601和处理器602;
所述存储器601,用于存储程序;
所述处理器602,用于处理所述程序,其中,所述程序包括:
在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,所述用户输入指令包括动作按键值或用户动作图像;
依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令;
执行对应所述动作指令的动作。
本发明实施例所公开的一种机器人,通过处理器602处理存储器601中预先存储的程序,使机器人对接收到的用户输入指令进行应用模式确定,以针对用户输入的不同类型指令,采用与之匹配的应用模式进行处理,进而生成与用户输入指令所对应的动作指令,以便机器人能够准确识别出用户当前想要控制其执行的动作任务,并通过执行与生成的动作指令所对应的相关动作,来实现机器人与用户之间的人机交互,同时在用户控制条件下,增加了机器人所能执行的动作种类,有效提高了机器人的智能化程度。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (11)
1.一种动作透传方法,其特征在于,应用于机器人,包括:
在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,所述用户输入指令包括动作按键值或用户动作图像;
依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令;
执行对应所述动作指令的动作。
2.根据权利要求1所述的动作透传方法,其特征在于,所述对应所述用户输入指令的应用模式,包括:
对应所述动作按键值的动作匹配模式;或者,
对应所述用户动作图像的动作图像识别模式。
3.根据权利要求2所述的动作透传方法,其特征在于,当所述应用模式为动作匹配模式时,所述依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令,包括:
从第一动作库中匹配出对应所述动作按键值的动作指令。
4.根据权利要求2所述的动作透传方法,其特征在于,当所述应用模式为动作图像识别模式时,所述依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令,包括:
对所述用户动作图像进行人体特征提取,获得人体轮廓图像;
构建所述人体轮廓图像对应的人体轮廓模型;
从第二动作库中匹配出对应所述人体轮廓模型的动作指令。
5.根据权利要求4所述的动作透传方法,其特征在于,所述从第二动作库中匹配出对应所述人体轮廓模型的动作指令,包括:
将所述人体轮廓模型与所述第二动作库中的预设人体轮廓模型进行相似度对比,获得目标相似度;
判断所述目标相似度是否达到预设相似度;
若所述目标相似度达到所述预设相似度,将所述预设人体轮廓模型对应的动作指令,作为对应所述人体轮廓模型的动作指令。
6.一种动作透传装置,其特征在于,应用于机器人,包括:
模式确定模块,用于在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,所述用户输入指令包括动作按键值或用户动作图像;
生成模块,用于依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令;
执行模块,用于执行对应所述动作指令的动作。
7.根据权利要求6所述的动作透传装置,其特征在于,所述对应所述用户输入指令的应用模式,包括:
对应所述动作按键值的动作匹配模式;或者,
对应所述用户动作图像的动作图像识别模式。
8.根据权利要求7所述的动作透传装置,其特征在于,所述生成模块包括:
第一匹配单元,用于在所述应用模式为动作匹配模式时,从第一动作库中匹配出对应所述动作按键值的动作指令。
9.根据权利要求7所述的动作透传装置,其特征在于,所述生成模块包括:
特征提取单元,用于在所述应用模式为动作图像识别模式时,对所述用户动作图像进行人体特征提取,获得人体轮廓图像;
模型构建单元,用于构建所述人体轮廓图像对应的人体轮廓模型;
第二匹配单元,用于从第二动作库中匹配出对应所述人体轮廓模型的动作指令。
10.根据权利要求9所述的动作透传装置,其特征在于,所述第二匹配单元包括:
对比子单元,用于将所述人体轮廓模型与所述第二动作库中的预设人体轮廓模型进行相似度对比,获得目标相似度;
判断子单元,用于判断所述目标相似度是否达到预设相似度;
选择子单元,用于若所述目标相似度达到所述预设相似度,将所述预设人体轮廓模型对应的动作指令,作为对应所述人体轮廓模型的动作指令。
11.一种机器人,其特征在于,包括存储器和处理器;
所述存储器,用于存储程序;
所述处理器,用于处理所述程序;其中,所述程序包括:
在接收到用户输入指令时,确定对应所述用户输入指令的应用模式,所述用户输入指令包括动作按键值或用户动作图像;
依据确定出的所述应用模式,生成对应所述用户输入指令的动作指令;
执行对应所述动作指令的动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710685247.5A CN107498555A (zh) | 2017-08-11 | 2017-08-11 | 一种动作透传方法、装置及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710685247.5A CN107498555A (zh) | 2017-08-11 | 2017-08-11 | 一种动作透传方法、装置及机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107498555A true CN107498555A (zh) | 2017-12-22 |
Family
ID=60689153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710685247.5A Pending CN107498555A (zh) | 2017-08-11 | 2017-08-11 | 一种动作透传方法、装置及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107498555A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109408209A (zh) * | 2018-09-27 | 2019-03-01 | 北京云迹科技有限公司 | 任务执行方法和装置 |
CN109890573A (zh) * | 2019-01-04 | 2019-06-14 | 珊口(上海)智能科技有限公司 | 移动机器人的控制方法、装置、移动机器人及存储介质 |
CN109960178A (zh) * | 2017-12-26 | 2019-07-02 | 深圳市优必选科技有限公司 | 机器人及其关节运动控制方法、装置 |
CN110154037A (zh) * | 2019-06-25 | 2019-08-23 | 深兰科技(上海)有限公司 | 一种机器人动作控制方法、装置、机器人和存储口介质 |
CN111267086A (zh) * | 2018-12-04 | 2020-06-12 | 北京猎户星空科技有限公司 | 一种动作任务的创建与执行方法及装置、设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03129407A (ja) * | 1989-10-16 | 1991-06-03 | Nippon Steel Corp | ロボット制御装置 |
CN105234940A (zh) * | 2015-10-23 | 2016-01-13 | 上海思依暄机器人科技有限公司 | 机器人及其控制方法 |
CN105345822A (zh) * | 2015-12-17 | 2016-02-24 | 成都英博格科技有限公司 | 智能机器人控制方法及装置 |
CN105511623A (zh) * | 2015-12-15 | 2016-04-20 | 深圳先进技术研究院 | 交互方法及装置 |
CN106125911A (zh) * | 2016-06-16 | 2016-11-16 | 北京地平线机器人技术研发有限公司 | 用于机器的人机交互学习方法及机器 |
CN106985150A (zh) * | 2017-03-21 | 2017-07-28 | 深圳泰坦创新科技有限公司 | 控制机器人动作的方法和装置 |
-
2017
- 2017-08-11 CN CN201710685247.5A patent/CN107498555A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03129407A (ja) * | 1989-10-16 | 1991-06-03 | Nippon Steel Corp | ロボット制御装置 |
CN105234940A (zh) * | 2015-10-23 | 2016-01-13 | 上海思依暄机器人科技有限公司 | 机器人及其控制方法 |
CN105511623A (zh) * | 2015-12-15 | 2016-04-20 | 深圳先进技术研究院 | 交互方法及装置 |
CN105345822A (zh) * | 2015-12-17 | 2016-02-24 | 成都英博格科技有限公司 | 智能机器人控制方法及装置 |
CN106125911A (zh) * | 2016-06-16 | 2016-11-16 | 北京地平线机器人技术研发有限公司 | 用于机器的人机交互学习方法及机器 |
CN106985150A (zh) * | 2017-03-21 | 2017-07-28 | 深圳泰坦创新科技有限公司 | 控制机器人动作的方法和装置 |
Non-Patent Citations (1)
Title |
---|
杨化书: "《机械基础》", 30 September 2002 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109960178A (zh) * | 2017-12-26 | 2019-07-02 | 深圳市优必选科技有限公司 | 机器人及其关节运动控制方法、装置 |
CN109960178B (zh) * | 2017-12-26 | 2020-10-16 | 深圳市优必选科技有限公司 | 机器人及其关节运动控制方法、装置 |
US10913155B2 (en) | 2017-12-26 | 2021-02-09 | Ubtech Robotics Corp | Robot and method for controlling joints thereof |
CN109408209A (zh) * | 2018-09-27 | 2019-03-01 | 北京云迹科技有限公司 | 任务执行方法和装置 |
CN111267086A (zh) * | 2018-12-04 | 2020-06-12 | 北京猎户星空科技有限公司 | 一种动作任务的创建与执行方法及装置、设备和存储介质 |
CN109890573A (zh) * | 2019-01-04 | 2019-06-14 | 珊口(上海)智能科技有限公司 | 移动机器人的控制方法、装置、移动机器人及存储介质 |
US10545497B1 (en) * | 2019-01-04 | 2020-01-28 | Ankobot (Shanghai) Smart Technologies Co., Ltd. | Control method and device for mobile robot, mobile robot |
WO2020140271A1 (zh) * | 2019-01-04 | 2020-07-09 | 珊口(上海)智能科技有限公司 | 移动机器人的控制方法、装置、移动机器人及存储介质 |
CN109890573B (zh) * | 2019-01-04 | 2022-05-03 | 上海阿科伯特机器人有限公司 | 移动机器人的控制方法、装置、移动机器人及存储介质 |
CN110154037A (zh) * | 2019-06-25 | 2019-08-23 | 深兰科技(上海)有限公司 | 一种机器人动作控制方法、装置、机器人和存储口介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107498555A (zh) | 一种动作透传方法、装置及机器人 | |
CN110480634B (zh) | 一种针对机械臂运动控制的手臂引导运动控制方法 | |
CN105224069B (zh) | 一种增强现实虚拟键盘输入方法及使用该方法的装置 | |
CN108983636B (zh) | 人机智能共生平台系统 | |
CN107765855A (zh) | 一种基于手势识别控制机器人运动的方法和系统 | |
CN103529944B (zh) | 一种基于Kinect的人体动作识别方法 | |
CN106873767B (zh) | 一种虚拟现实应用的运行控制方法和装置 | |
CN104656893B (zh) | 一种信息物理空间的远程交互式操控系统及方法 | |
EP3628380B1 (en) | Method for controlling virtual objects, computer readable storage medium and electronic device | |
CN104589356A (zh) | 基于Kinect人手运动捕捉的灵巧手遥操作控制方法 | |
CN105867630A (zh) | 机器人的手势识别方法及装置及机器人系统 | |
CN106468917B (zh) | 一种可触摸现场实时视频图像的远程呈现交互方法和系统 | |
CN105589553A (zh) | 一种智能设备的手势控制方法和系统 | |
CN106990840A (zh) | 控制方法和控制系统 | |
CN109905593A (zh) | 一种图像处理方法和装置 | |
WO2021035646A1 (zh) | 可穿戴设备及其控制方法、识别手势的方法和控制系统 | |
CN107813306A (zh) | 机器人及其动作控制方法和装置 | |
CN106774824A (zh) | 虚拟现实交互方法及装置 | |
CN109199240A (zh) | 一种基于手势控制的扫地机器人控制方法及系统 | |
CN102830798A (zh) | 单臂机器人基于Kinect的无标记人手跟踪方法 | |
CN107240105A (zh) | 一种图片剪裁方法及装置 | |
JP2024009171A (ja) | ヘッドマウントディスプレイ装置 | |
CN107696028A (zh) | 用于智能机器人的控制方法和装置及机器人 | |
CN106502416B (zh) | 一种智能识别双手手势的模拟驾驶系统及其控制方法 | |
CN106095087A (zh) | 体感交互系统以及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information |
Address after: 201207 Chinese (Shanghai) free trade zone fanchun Road No. 400 Building 1 layer 3 Applicant after: SHANGHAI SIYIXUAN ROBOT TECHNOLOGY CO., LTD. Address before: 200233 room F6, room 4, building No. 34, Guiping Road, Xuhui District, Xuhui District, Shanghai Applicant before: SHANGHAI SIYIXUAN ROBOT TECHNOLOGY CO., LTD. |
|
CB02 | Change of applicant information | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171222 |
|
RJ01 | Rejection of invention patent application after publication |