CN107516127B - 服务机器人自主获取人穿携物品归属语义的方法及系统 - Google Patents
服务机器人自主获取人穿携物品归属语义的方法及系统 Download PDFInfo
- Publication number
- CN107516127B CN107516127B CN201710719900.5A CN201710719900A CN107516127B CN 107516127 B CN107516127 B CN 107516127B CN 201710719900 A CN201710719900 A CN 201710719900A CN 107516127 B CN107516127 B CN 107516127B
- Authority
- CN
- China
- Prior art keywords
- article
- attribution
- person
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种服务机器人自主获取人穿携物品归属语义的方法及系统,进行人脸识别,并对获取的图像进行深度模型训练,得到人脸识别模型,使用模型对人脸图像进行特征提取,送入线性分类器对提取的特征进行匹配,得到人物身份;获取人的身体关键部位点信息,对穿携物品进行定位,采集到物品的点云信息,通过云端语义样本库进行物品识别,获取到物品类别信息;以服务周期为时间间隔,利用记忆矩阵表示人与物品归属关系,基于记忆的学习方式进行人物身份和物品关系的学习,得到人物身份和物品的对应关系。本发明能推动服务机器人真正走入人的工作和生活的进程,同时推动服务机器人的产业化。
Description
技术领域
本发明涉及一种服务机器人自主获取人穿携物品归属语义的方法及系统。
背景技术
服务机器人要给人提供服务,必须提高其智能水平。智能服务机器人应能够与作业环境、人和其它机器人自然交互、自主适应复杂动态环境并协同作业。随着服务机器人越来越多地进入我们的工作和生活,按人的命令操作环境中的物品将越来越频繁。办公或者家庭环境中通常有多人同时工作或者生活,每个人都有自己专属的经常携带的日用品,如包、手机、杯子、帽子或者鞋等。
当机器人提供服务任务时,准确找到命令发出者的物品是任务完成的前提。例如,若主人A让机器人执行拿手机任务,机器人需在几个手机中确定哪个属于主人A,才能顺利完成任务。主人B回到家中,机器人应能准确取主人B的拖鞋送到其跟前。主人C要出门时,机器人递上主人C的包、帽子和围巾。服务机器人学习了物品与人的语义归属关系,才能根据人的语义命令找到要拿的物品,满足人的个性化需求,提供智能化的服务。因此提取人穿携物品归属语义是机器人提供智能服务的根本保证。
发明内容
本发明为了解决上述问题,提出了一种服务机器人自主获取人穿携物品归属语义的方法及系统,本发明基于视觉传感器,在复杂多变的室内环境中,提取多角度下的动态人脸特征,剔除干扰数据并定位人的可能穿携物品的关键部位,基于物品语义库确定穿携物品的类别;同时基于深度学习算法对人脸进行检测和识别,并在衣着特征提取基础上设置人的身份标签,经过迭代周期学习确定该环境中的各主人身份,基于记忆学习算法提取人穿携物品的归属语义。
为了实现上述目的,本发明采用如下技术方案:
一种服务机器人自主获取人穿携物品归属语义的方法,包括以下步骤:
(1)进行人脸识别,并对获取的图像进行深度模型训练,得到人脸识别模型,使用模型对人脸图像进行特征提取,送入线性分类器对提取的特征进行匹配,得到人物身份;
(2)获取人的身体关键部位点信息,对穿携物品进行定位,采集到物品的点云信息,通过云端语义样本库进行物品识别,获取到物品类别信息;
(3)以服务周期为时间间隔,利用记忆矩阵表示人与物品归属关系,基于记忆的学习方式进行人物身份和物品关系的学习,得到人物身份和物品的对应关系。
所述步骤(1)中,使用Kinect设备获取到深度信息,以深度信息为基础对不同姿态、光照和/或背景条件下的人脸图像进行自主采集。
所述步骤(1)中,在获取人脸图像的同时,采集人的衣物图像,对其进行颜色和纹理特征提取,以这些特征作为区分不同人物的标签对人物图像进行标定,将获取到的图像以相应身份为区分指标进行存储,并定期与云平台进行交互,将图像以云数据的形式进行存储,图像获取完成后,使用获取到的人脸图像对深度模型进行训练,得到人脸识别模型,使用模型对人脸图像进行特征提取,送入线性分类器对提取的特征进行匹配,得到人物身份。
进一步的,所述步骤(1)中,以获取到的深度信息为基础,通过对人物头部及颈部进行空间位置进行标定,得到两者的空间坐标,通过空间距离计算公式得到两者之间的空间距离信息,以此空间距离信息为边界信息对人脸图像进行采集。
进一步的,所述步骤(1)中,使用SeetaFace Detection对采集到的人脸图像进行人脸位置修正,SeetaFace Detection为级联的漏斗结构,使用多层针对多姿态的快速LAB级联分类器和多层粗多层感知器级联后由一个粗多层感知器级联结构来处理所有姿态的候选窗口,最终得到人脸的位置信息。
进一步的,所述步骤(1)中,利用反向传播算法对卷积神经网络进行微调。
具体的,前向传播过程中,先使用预训练好的CNN模型提取特征,并使用全连接层作为特征与后端分类器的转换层,将经过全连接层进行数据转换后的人脸特征送入后端分类器进行身份识别,选用交叉熵代价函数表示分类器识别结果对真实结果的误差,完成卷积神经网络的前向传播过程;
反向传播过程中,由链式求导法则计算前向传播的误差对各层神经元之间的连接强度和各层神经元的偏置参数的梯度,并不断更新,完成反向传播过程。
所述步骤(2)中,根据深度信息获取的人体关节点标定,通过关节点信息进行穿戴物品定位分割,并采集到相应的点云数据,利用云端语义样本库进行匹配,得到物品的类别信息。
所述步骤(2)中,模拟人的长短期记忆,利用人物对物品的归属概率构建记忆矩阵来对人与物品归属关系进行表示。
进一步的,所述步骤(2)中,人与物品关系的学习以服务周期为时间间隔进行重复学习,在每个服务周期中,机器人通过Kinect设备获取到人物面部图像以及物品点云图像,使用前述方法获取到人物身份以及物品识别信息,对此次获取到的人物归属物品信息进行统计,最终当一个周期结束时,统计各个物品的归属概率将其以记忆矩阵的形式进行存储,经过多个短期周期的迭代学习获取到多个记忆矩阵,最终求取所有记忆矩阵的均值,以每一列中概率最大的人物作为本物品的归属,获得最终的人与物品归属关系的表示。
进一步的,所述步骤(2)中,将人与物品归属关系的表示关系存储到云端实现数据的云化。
一种服务机器人自主获取人穿携物品归属语义的系统,包括:
机器人本体,所述机器人本体上设置有图像采集设备以进行人脸识别;
模型训练模块,被配置为对获取的图像进行深度模型训练,得到人脸识别模型,使用模型对人脸图像进行特征提取,送入线性分类器对提取的特征进行匹配,得到人物身份;
物品学习模块,被配置为根据获取的人物身体关键部位点信息,对穿携物品进行定位,采集到物品的点云信息,通过云端语义样本库进行物品识别,获取到物品类别信息;
关系构建模块,以服务周期为时间间隔,利用记忆矩阵表示人与物品归属关系,基于记忆的学习方式进行人物身份和物品关系的学习,得到人物身份和物品的对应关系。
与现有技术相比,本发明的有益效果为:
本发明提供了解决人常穿携物品与主人的归属关系的获取思路和方法。该方法弥补了服务机器人环境认知中人-物语义关系缺乏的不足,更符合人在担任保姆角色时的服务任务执行特征,提升了服务机器人的智能化水平;
本发明能够适用于多个服务主人和服务主人具有多个附属物品的情况,能够进行归属自动识别与配置,有利于智能家居、智慧社区的建立;
本发明的人穿携物品语义归属认知完全由服务机器人自主完成。整个认知过程不需要人的参与。此功能的设计和实现能推动服务机器人真正走入人的工作和生活的进程,同时推动服务机器人的产业化。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本发明的流程示意图;
图2为本发明的关节点标定图;
图3为网络未微调vs微调识别准确率;
图4(a)、图4(b)分别为物品分割及物品点云图像实验图。
具体实施方式:
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
正如背景技术所介绍的,现有技术中存在机器人无法得知多个主人的情况下,各个物品的归属关系的不足,为了解决如上的技术问题,本申请提出一种服务机器人自主获取人穿携物品归属语义的方法。
本方法要确定主人身份,首先进行人脸识别。使用Kinect设备获取到深度信息,以深度信息为基础对不同姿态、光照、背景等条件下的人脸图像进行自主采集。在获取人脸图像的同时,采集人的衣物图像,对其进行颜色,纹理等特征提取,以这些特征作为区分不同人物的标签对人物图像进行标定,将获取到的图像以相应身份为区分指标进行存储,并定期与云平台进行交互,将图像以云数据的形式进行存储。图像获取完成后,使用获取到的人脸图像对深度模型进行训练,得到人脸识别模型。最终使用模型对人脸图像进行特征提取,送入线性分类器对提取的特征进行匹配,得到人物身份。
使用Kinect设备获取人的身体关键部位点信息,对穿携物品进行定位,采集到物品的点云信息,通过云端语义-CVFH样本库进行物品识别,获取到物品类别信息。
人的穿戴物品相对于家庭环境中其他物品会以更高的频率出现在人物所在区域,因此需要对物品出现频率进行统计学习,进而学习到人与物品的归属关系。采用基于记忆的学习方式进行两者关系的学习。首先利用前述方法识别出同一时刻人物的身份信息以及物品的类别信息,以人物为中心统计物品出现的频次,将其以短期记忆矩阵形式进行存储,为了实现学习的可间断性以及频率数据的更新,设定一个短期周期,经过多个短期周期的迭代学习,将获得的记忆矩阵进行统计,并将关系数据存储在云端,实现数据存储的云端化,最终自主学习到人与物品归属关系。其中短期周期定义为当机器人学习时间满足预先设定的时间周期。
作为一种典型实施方式,如图1所示,人脸数据获取:
为了实现人脸图像的采集,使用Kinect作为图像获取设备,通过处理景深数据追踪到人脸在空间中的位置信息,并将人脸图像通过云端进行存储,实现数据的云化以及数据的共享。根据景深信息获取的人体关节点标定如图2所示。
为确保获取到人脸图像的完整性,以获取到的深度信息为基础,通过对人物头部及颈部进行空间位置进行标定,得到两者的空间坐标h(x,y,z)和n(x,y,z),通过空间距离计算公式得到两者之间的空间距离信息d(h,n),以此空间距离信息为边界信息对人脸图像进行采集。
为了使特征提取能够更加有效地提取到人脸面部图像的信息,对Kinect采集到的人脸图像使用SeetaFace Detection进行人脸位置修正,进一步提高人脸定位精度。SeetaFace Detection用级联的漏斗结构(Funnel-Structured cascade,FuSt)实现,可实现多姿态脸部检测。FuSt采用“由粗到细的结构”,前几层使用针对多姿态的快速LAB级联分类器,后几层是粗多层感知器(coarse Multilayer Perceptron,coarse MLP)级联结构,最后由一个统一的MLP级联结构来处理所有姿态的候选窗口,最终得到人脸的位置信息。
人脸特征提取与识别:
不同的人脸之间存在共性,因此可以从现有的人脸数据进行有监督的预训练,学习到关于人脸特征的知识,在此基础上将学习到的知识用于新的人脸识别中,即实现同构空间下基于特征的迁移学习。为了使学习到的人脸特征的知识更具有针对性,使用存储在云端的人脸数据对卷积神经网络(CNN)进行微调,即采用有监督的预训练+微调的方式训练卷积神经网络。
对神经网络的微调使用反向传播算法(BP)。前向传播过程中,先使用预训练好的CNN模型提取特征,并使用全连接层作为特征与后端分类器的转换层,数学表达式为:
其中:n是前一层的神经元个数;l表示当前层数;是该层神经元j与前一层神经元i的连接强度;是该层神经元j的偏置;f(·)表示激活函数,即为转换后的特征。将经过全连接层进行数据转换后的人脸特征送入后端Softmax分类器进行身份识别,选用交叉熵代价函数表示Softmax分类器识别结果对真实结果的误差,完成卷积神经网络的前向传播过程。其中代价函数Lloss定义如下:
其中,x表示样本,n表示样本的总数,a为网络的实际输出,y为期望输出。反向传播过程中,由链式求导法则计算前向传播的误差对参数wj的梯度:
b的梯度:
其中σ(z)是模型输出,σ(z)-y是误差,由公式
进行参数更新,完成反向传播过程。
经过正向传播与反向传播过程的不断迭代,得到最终的人脸识别模型。图3展示了同一网络微调前后的识别准确率变化。
人穿戴物品识别:
使用Kinect设备获取所在空间的景深信息,通过关节点信息进行穿戴物品定位分割,并采集到相应的点云数据,利用云端语义-CVFH样本库进行匹配,得到物品的类别信息。图4(a)为通过Kinect设备进行物品分割图像,图4(b)获取到的物品点云图像。
基于记忆矩阵的物品归属关系表示:
模拟人的长短期记忆,提出记忆矩阵来对人与物品归属关系进行表示,记忆矩定义如下:
其中aij表示人物i对物品j的归属概率。
人与物品归属关系学习:
人与物品关系的学习以服务周期为时间间隔进行重复学习。在每个服务周期中,机器人通过Kinect设备获取到人物面部图像以及物品点云图像,使用前述方法获取到人物身份以及物品识别信息,对此次获取到的人物归属物品信息进行统计,最终当一个周期结束时,统计各个物品的归属概率将其以记忆矩阵的形式进行存储。经过多个短期周期的迭代学习获取到多个记忆矩阵,最终求取所有记忆矩阵的均值,以每一列中概率最大的人物作为本物品的归属,获得最终的人与物品归属关系的表示,并将此关系存储到云端实现数据的云化。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.一种服务机器人自主获取人穿携物品归属语义的方法,其特征是:包括以下步骤:
(1)进行人脸识别,并对获取的图像进行深度模型训练,得到人脸识别模型,使用模型对人脸图像进行特征提取,送入线性分类器对提取的特征进行匹配,得到人物身份;
(2)获取人的身体关键部位点信息,对穿携物品进行定位,采集到物品的点云信息,通过云端语义样本库进行物品识别,获取到物品类别信息;
(3)以服务周期为时间间隔,利用记忆矩阵表示人与物品归属关系,基于记忆的学习方式进行人物身份和物品关系的学习,得到人物身份和物品的对应关系;
模拟人的长短期记忆,提出记忆矩阵来对人与物品归属关系进行表示,记忆矩定义如下:
其中aij表示人物i对物品j的归属概率;
人与物品关系的学习以服务周期为时间间隔进行重复学习;在每个服务周期中,机器人通过Kinect设备获取到人物面部图像以及物品点云图像,使用前述方法获取到人物身份以及物品识别信息,对此次获取到的人物归属物品信息进行统计,最终当一个周期结束时,统计各个物品的归属概率将其以记忆矩阵的形式进行存储;经过多个短期周期的迭代学习获取到多个记忆矩阵,最终求取所有记忆矩阵的均值,以每一列中概率最大的人物作为本物品的归属,获得最终的人与物品归属关系的表示,并将此关系存储到云端实现数据的云化。
2.如权利要求1所述的一种服务机器人自主获取人穿携物品归属语义的方法,其特征是:所述步骤(1)中,使用Kinect设备获取到深度信息,以深度信息为基础对不同姿态、光照和/或背景条件下的人脸图像进行自主采集。
3.如权利要求1所述的一种服务机器人自主获取人穿携物品归属语义的方法,其特征是:所述步骤(1)中,在获取人脸图像的同时,采集人的衣物图像,对其进行颜色和纹理特征提取,以这些特征作为区分不同人物的标签对人物图像进行标定,将获取到的图像以相应身份为区分指标进行存储,并定期与云平台进行交互,将图像以云数据的形式进行存储,图像获取完成后,使用获取到的人脸图像对深度模型进行训练,得到人脸识别模型,使用模型对人脸图像进行特征提取,送入线性分类器对提取的特征进行匹配,得到人物身份。
4.如权利要求1所述的一种服务机器人自主获取人穿携物品归属语义的方法,其特征是:所述步骤(1)中,以获取到的深度信息为基础,通过对人物头部及颈部进行空间位置进行标定,得到两者的空间坐标,通过空间距离计算公式得到两者之间的空间距离信息,以此空间距离信息为边界信息对人脸图像进行采集。
5.如权利要求1所述的一种服务机器人自主获取人穿携物品归属语义的方法,其特征是:所述步骤(1)中,使用SeetaFace Detection对采集到的人脸图像进行人脸位置修正,SeetaFace Detection为级联的漏斗结构,使用多层针对多姿态的快速LAB级联分类器和多层粗多层感知器级联后由一个粗多层感知器级联结构来处理所有姿态的候选窗口,最终得到人脸的位置信息。
6.如权利要求1所述的一种服务机器人自主获取人穿携物品归属语义的方法,其特征是:所述步骤(1)中,利用反向传播算法对卷积神经网络进行微调:前向传播过程中,先使用预训练好的CNN模型提取特征,并使用全连接层作为特征与后端分类器的转换层,将经过全连接层进行数据转换后的人脸特征送入后端分类器进行身份识别,选用交叉熵代价函数表示分类器识别结果对真实结果的误差,完成卷积神经网络的前向传播过程;
反向传播过程中,由链式求导法则计算前向传播的误差对各层神经元之间的连接强度和各层神经元的偏置参数的梯度,并不断更新,完成反向传播过程。
7.如权利要求1所述的一种服务机器人自主获取人穿携物品归属语义的方法,其特征是:所述步骤(2)中,根据深度信息获取的人体关节点标定,通过关节点信息进行穿戴物品定位分割,并采集到相应的点云数据,利用云端语义样本库进行匹配,得到物品的类别信息。
8.如权利要求1所述的一种服务机器人自主获取人穿携物品归属语义的方法,其特征是:所述步骤(3)中,模拟人的长短期记忆,利用人物对物品的归属概率构建记忆矩阵来对人与物品归属关系进行表示。
9.如权利要求1所述的一种服务机器人自主获取人穿携物品归属语义的方法,其特征是:所述步骤(3)中,人与物品关系的学习以服务周期为时间间隔进行重复学习,在每个服务周期中,机器人通过Kinect设备获取到人物面部图像以及物品点云图像,使用前述方法获取到人物身份以及物品识别信息,对此次获取到的人物归属物品信息进行统计,最终当一个周期结束时,统计各个物品的归属概率将其以记忆矩阵的形式进行存储,经过多个短期周期的迭代学习获取到多个记忆矩阵,最终求取所有记忆矩阵的均值,以每一列中概率最大的人物作为本物品的归属,获得最终的人与物品归属关系的表示。
10.一种服务机器人自主获取人穿携物品归属语义的系统,其特征是:包括:
机器人本体,所述机器人本体上设置有图像采集设备以进行人脸识别;
模型训练模块,被配置为对获取的图像进行深度模型训练,得到人脸识别模型,使用模型对人脸图像进行特征提取,送入线性分类器对提取的特征进行匹配,得到人物身份;
物品学习模块,被配置为根据获取的人物身体关键部位点信息,对穿携物品进行定位,采集到物品的点云信息,通过云端语义样本库进行物品识别,获取到物品类别信息;
关系构建模块,以服务周期为时间间隔,利用记忆矩阵表示人与物品归属关系,基于记忆的学习方式进行人物身份和物品关系的学习,得到人物身份和物品的对应关系;
模拟人的长短期记忆,提出记忆矩阵来对人与物品归属关系进行表示,记忆矩定义如下:
其中aij表示人物i对物品j的归属概率;
人与物品关系的学习以服务周期为时间间隔进行重复学习;在每个服务周期中,机器人通过Kinect设备获取到人物面部图像以及物品点云图像,使用前述方法获取到人物身份以及物品识别信息,对此次获取到的人物归属物品信息进行统计,最终当一个周期结束时,统计各个物品的归属概率将其以记忆矩阵的形式进行存储;经过多个短期周期的迭代学习获取到多个记忆矩阵,最终求取所有记忆矩阵的均值,以每一列中概率最大的人物作为本物品的归属,获得最终的人与物品归属关系的表示,并将此关系存储到云端实现数据的云化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710719900.5A CN107516127B (zh) | 2017-08-21 | 2017-08-21 | 服务机器人自主获取人穿携物品归属语义的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710719900.5A CN107516127B (zh) | 2017-08-21 | 2017-08-21 | 服务机器人自主获取人穿携物品归属语义的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107516127A CN107516127A (zh) | 2017-12-26 |
CN107516127B true CN107516127B (zh) | 2020-06-30 |
Family
ID=60723460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710719900.5A Active CN107516127B (zh) | 2017-08-21 | 2017-08-21 | 服务机器人自主获取人穿携物品归属语义的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107516127B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109493369B (zh) * | 2018-09-11 | 2020-12-29 | 深圳控石智能系统有限公司 | 一种智能机器人视觉动态定位跟踪方法及系统 |
CN111126102A (zh) | 2018-10-30 | 2020-05-08 | 富士通株式会社 | 人员搜索方法、装置及图像处理设备 |
CN111788585B (zh) * | 2019-01-16 | 2024-04-12 | 华为云计算技术有限公司 | 一种深度学习模型的训练方法、系统 |
CN111726232B (zh) * | 2019-03-27 | 2021-06-04 | 徐莎莎 | 基于网络传输的即时认证系统 |
CN110097724B (zh) * | 2019-04-24 | 2021-06-29 | 苏州浪潮智能科技有限公司 | 一种基于fpga的物品自动看护方法及系统 |
CN110929692B (zh) * | 2019-12-11 | 2022-05-24 | 中国科学院长春光学精密机械与物理研究所 | 一种基于多传感器信息融合的三维目标检测方法及装置 |
CN111243624B (zh) * | 2020-01-02 | 2023-04-07 | 武汉船舶通信研究所(中国船舶重工集团公司第七二二研究所) | 人员状态评估的方法和系统 |
CN111274489B (zh) * | 2020-03-25 | 2023-12-15 | 北京百度网讯科技有限公司 | 信息处理方法、装置、设备及存储介质 |
CN111496784B (zh) * | 2020-03-27 | 2021-05-07 | 山东大学 | 一种用于机器人智能化服务的空间环境识别方法及系统 |
CN111813995A (zh) * | 2020-07-01 | 2020-10-23 | 盛视科技股份有限公司 | 一种基于时空关系的行人提取物品行为检测方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845330A (zh) * | 2016-11-17 | 2017-06-13 | 北京品恩科技股份有限公司 | 一种基于深度卷积神经网络的二维人脸识别模型的训练方法 |
-
2017
- 2017-08-21 CN CN201710719900.5A patent/CN107516127B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845330A (zh) * | 2016-11-17 | 2017-06-13 | 北京品恩科技股份有限公司 | 一种基于深度卷积神经网络的二维人脸识别模型的训练方法 |
Non-Patent Citations (3)
Title |
---|
Learning to Recognize Hand-Held Objects from Scratch;Xue Li等;《Advances in Multimedia Information Processing》;20161231;全文 * |
基于云的语义库设计及机器人语义地图构建;于金山等;《机器人》;20160731;全文 * |
基于机器人服务任务导向的室内未知环境地图构建;吴皓等;《机器人》;20100331;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107516127A (zh) | 2017-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107516127B (zh) | 服务机器人自主获取人穿携物品归属语义的方法及系统 | |
CN110009052B (zh) | 一种图像识别的方法、图像识别模型训练的方法及装置 | |
CN108764107B (zh) | 基于人体骨架序列的行为与身份联合识别方法及装置 | |
CN110135249B (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
Budiharto et al. | Fast object detection for quadcopter drone using deep learning | |
CN111814661B (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN111523621A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN109829436A (zh) | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 | |
CN106951923B (zh) | 一种基于多视角信息融合的机器人三维形状识别方法 | |
CN110555481A (zh) | 一种人像风格识别方法、装置和计算机可读存储介质 | |
CN108764059A (zh) | 一种基于神经网络的人体行为识别方法及系统 | |
CN107423721A (zh) | 人机交互动作检测方法、装置、存储介质及处理器 | |
CN111368759B (zh) | 基于单目视觉的移动机器人语义地图构建系统 | |
Nuevo et al. | RSMAT: Robust simultaneous modeling and tracking | |
CN106548194B (zh) | 二维图像人体关节点定位模型的构建方法及定位方法 | |
CN111444488A (zh) | 一种基于动态手势的身份认证方法 | |
Werner et al. | DeepMoVIPS: Visual indoor positioning using transfer learning | |
Ansar et al. | Robust hand gesture tracking and recognition for healthcare via Recurent neural network | |
CN112052771A (zh) | 一种对象重识别方法及装置 | |
CN110807391A (zh) | 基于视觉的人-无人机交互用人体姿态指令识别方法 | |
CN110135277A (zh) | 一种基于卷积神经网络的人体行为识别方法 | |
CN110348395B (zh) | 一种基于时空关系的骨架行为识别方法 | |
Han et al. | Cultural and creative product design and image recognition based on the convolutional neural network model | |
CN114694174A (zh) | 一种基于时空图卷积的人体交互行为识别方法 | |
CN112818887B (zh) | 基于无监督学习的人体骨架序列行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |