CN106096565A - 基于传感网络的移动机器人与静态传感器的任务协作方法 - Google Patents

基于传感网络的移动机器人与静态传感器的任务协作方法 Download PDF

Info

Publication number
CN106096565A
CN106096565A CN201610442907.2A CN201610442907A CN106096565A CN 106096565 A CN106096565 A CN 106096565A CN 201610442907 A CN201610442907 A CN 201610442907A CN 106096565 A CN106096565 A CN 106096565A
Authority
CN
China
Prior art keywords
sensor
information
human body
mobile robot
articulare
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610442907.2A
Other languages
English (en)
Other versions
CN106096565B (zh
Inventor
刘国良
田国会
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201610442907.2A priority Critical patent/CN106096565B/zh
Publication of CN106096565A publication Critical patent/CN106096565A/zh
Application granted granted Critical
Publication of CN106096565B publication Critical patent/CN106096565B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于传感网络的移动机器人与静态传感器的任务协作方法,构建动态分布式传感器网络,对获取的人体的关节点分布式信息进行一致性的估计;对人体关节点分布式信息进行一致性的估计后进行基于彩色图像和深度图像多特征的联合数据关联;基于人体行为特征的分布式DTW人体行为意图识别;在行为识别结果基础上,移动机器人利用合同网方法参与竞标服务,针对用户特定行为进行机器人服务;在静态传感器对人体某个关节点估计误差超过设定值时,发起近距离查看任务请求,由相邻移动机器人竞标该任务并执行,实现对特定目标的近距离观测。本发明一方面针对观测盲区提供近距离观察,另一方面针对人体特殊行为提供相应智能化服务。

Description

基于传感网络的移动机器人与静态传感器的任务协作方法
技术领域
本发明涉及信息技术领域,具体涉及基于传感网络的移动机器人与静态传感器的任务协作方法。
背景技术
基于多个RGBD相机的人体行为识别受到研究者的广泛关注,被应用于手术室、工厂车间、汽车组装、室内监控等环境下的人体行为检测,有效解决了人体遮挡问题和可能发生的人-机器人碰撞问题,具有重要的应用价值。
目前基于多个RGBD传感器的人体行为感知还处于集中式阶段,需要一个或多个数据融合中心进行三维数据、人体骨架关节点数据的融合,对数据融合中心的计算能力和鲁棒性要求较高,对网络的不稳定性抵抗力较弱,可扩展程度低。
随着RGBD传感器技术的发展,其使用数量和覆盖范围会随之增大,集中式的RGBD传感器网络所需要处理和传输的信息流会爆发式增长,其在现实应用中的瓶颈会越发明显。
静态传感器位置固定,视角有限,不具备移动服务能力,另外,当场景中存在多个人体目标时,需要解决关于人体行为的感知问题。目前,关于人体行为的感知技术存在着识别精度不够,无法满足现有的需求。
发明内容
为解决现有技术存在的不足,本发明公开了基于传感网络的移动机器人与静态传感器的任务协作方法。本发明建立移动机器人和静态传感器任务协作机制,一方面针对观测盲区提供近距离观察,另一方面针对人体特殊行为提供相应智能化服务。
为实现上述目的,本发明的具体方案如下:
基于传感网络的移动机器人与静态传感器的任务协作方法,包括以下步骤:
构建动态分布式传感器网络,对获取的人体的关节点分布式信息进行一致性的估计;
对人体关节点分布式信息进行一致性的估计后进行基于彩色图像和深度图像多特征的联合数据关联;
基于人体行为特征的分布式DTW人体行为意图识别;
在行为识别结果基础上,移动机器人利用合同网方法参与竞标服务,针对用户特定行为进行机器人服务;
在静态传感器对人体某个关节点估计误差超过设定值时,发起近距离查看任务请求,由相邻移动机器人竞标该任务并执行,将观测结果发送给静态传感器,实现对特定目标的近距离观测。
进一步的,移动机器人和静态传感器之间的任务协作主要通过黑板模型完成,包含两大部分:黑板区和知识库。
进一步的,黑板区由全局目标库、机器人状态列表、决策选择、请求序列和任务列表组成,知识库内则包含任务分配算法、信息计算模块、请求处理和指令发送模块组成;
黑板区通过实时数据进行更新,进一步驱动知识库中的相应模块。
进一步的,对获取的人体的关节点分布式信息进行一致性的估计,具体包括:
骨架关节点位置初始化;
本地传感器对关节点运动估计:构建人体关节点的运动模型和观测模型,实现对关节点状态的有效估计;
传感器之间对目标关节点的信息一致性估计:定义人体关节点状态对应的信息向量、信息矩阵及其信息贡献和模型概率作为信息一致性算法的交换量;
每个传感器将自身估计的关节点信息向量、信息矩阵及其对应的信息贡献、模型概率发送给相邻的通讯传感器节点,并接受周围传感器的信息,利用信息一致性算法,融合周围传感器的估计结果,连续迭代数次,实现算法和估计结果的收敛。
基于构建的动态分布式传感器网络,传感器将采集的人体骨架关节点信息传输至信息处理中心。
骨架关节点位置初始化时,通过对关节点深度信息预先学习训练,实现对每帧人体关节点的检测,或利用现有工具OPENNI NITE或微软SDK直接提取关节点。
在骨架关节点位置初始化时,为去除无效关节点,建立人体关节点运动模型物理约束,剔除不满足人体关节点旋转角度和长度约束的人体关节点。
人体关节点运动模型物理约束的相关参数,包括人体肘关节和肩关节之间长度,可依据检测数据自适应升级。
在实现对关节点状态的有效估计时是基于贝叶斯滤波器实现的。
构建人体关节点的运动模型和观测模型,其中,对线性模型,利用线性信息滤波器估计,而对于非线性模型,利用非线性滤波器进行估计,非线性滤波器包括扩展信息滤波器和基于中心差分信息滤波器。
信息一致性估计时,具体包括的步骤为:
(1)参数初始化,检测得出人体关节点的初始位置,位置的方差依据关节点识别的置信水平确定,并依据关节运动特点设定关节的运动模型转换概率;
(2)多模型交互,即根据模型概率和模型转换概率计算模型之间的混合概率,再依据混合概率计算得出每个模型的混合均值和混合方差;
(3)信息滤波,以混合均值和混合方差为输入,计算其信息向量和信息矩阵,对线性和非线性运动模型分别采用线性信息滤波器和中心差分信息滤波器估计,根据当前深度图像检测的关节点位置升级滤波器关节点状态和模型概率;
(4)基于分布式信息一致性算法的信息融合,即各传感器之间交换关节点估计信息,包括关节点状态信息向量、信息矩阵和模型概率,通过一致性算法加权迭代实现各传感器估计状态的一致性。
另外,各传感器节点基于模型概率加权和的混合输出,即利用模型概率对各个模型的估计结果进行加权求和,作为各传感器信息处理系统当前时刻的估计结果。
进一步的,对人体关节点分布式信息进行一致性的估计后进行基于彩色图像和深度图像多特征的联合数据关联,包括以下步骤:
采用联合数据概率关联算法实现本地传感器节点对跟踪目标和目标观测之间进行第一次数据关联;
基于马氏距离的匈牙利算法实现传感器节点之间对跟踪目标的第二次数据关联;
各传感器之间交换关节点估计信息,通过一致性算法加权迭代实现各传感器估计状态的一致性;
其中,在第一次数据关联时,基于多特征的目标观测候选集调整机制,利用关节点位置观测信息z、彩色图像梯度方向直方图特征hc和深度图像梯度方向直方图特征hd构建三个阈值门限(γzcd)以限定观测集大小。
基于分布式信息一致性算法的信息融合之后还包括利用模型概率对各个模型的估计结果进行加权求和,作为各传感器信息处理系统当前时刻的估计结果的步骤。
分布式信息一致性算法使得本地传感器在获取本地数据关联估计结果后,可与邻近节点交换数据关联结果,以实现各传感器数据关联结果的融合。
利用关节点位置观测信息z、彩色图像梯度方向直方图特征hc和深度图像梯度方向直方图特征hd构建三个阈值门限(γzcd)以限定观测集大小:
( z - z ^ ) S - 1 ( z - z ^ ) < &gamma; z , d ( h c , h ^ c ) < &gamma; c , d ( h d , h ^ d ) < &gamma; d ,
其中,是根据上一帧关节点估计值预测的当前关节点位置,S是z的方差,分别是从最近的历史关键帧中学习的以关节点位置为中心的HOG特征和HOD特征,d是直方图Chi-square卡方距离测度。
关节点的马氏距离定义如下:
(xi-xj)T(Pi+Pj)-1(xi-xj),
(xi,xj)和(Pi,Pj)是人体关节点分别在传感器i和传感器j上的估计状态和方差。
基于人体行为特征的分布式DTW人体行为意图识别方法,包括以下步骤:
获取当前帧人体行为特征并将其添加到人体行为特征时间序列中;
利用动态时间规整算法DTW对当前观测人体行为特征序列与数据库模板中已学习的特定行为序列进行匹配,计算两者之间基于卡方距离的最佳匹配相似度;
对该相似度取逆,经归一化后得到匹配概率;
将每个传感器的动作模式概率值作为一致性信息量与相邻传感器再一次数据交换,经过一致性迭代运算,最终相邻传感器节点的识别结果达成一致。
进一步的,在计算匹配概率时,为融合周围传感器识别结果,相邻连接传感器之间互换匹配概率信息。
进一步的,相邻连接传感器之间互换匹配概率信息的方式具体为:
第i个传感器将k时刻动作模式α对应的匹配概率与相邻传感器节点j计算的匹配概率进行数据交换,并依据动作模式之间的转移概率矩阵M,确定动作模式α的概率值
w 1 &alpha; ( k ) = &eta; ( k ) &Pi; j v j &alpha; ( k ) ( &Sigma; &beta; M ( &beta; , &alpha; ) w i &beta; ( k - 1 ) ) ,
其中η(k)是归一化因子,M(β,α)是动作模式β和动作模式α之间的转移概率值。
进一步的,相邻连接传感器之间互换匹配概率信息后,若最终的大于一定阈值,则认定当前观测目标动作序列与动作模式α匹配成功。
进一步的,基于人体行为特征的分布式DTW人体行为意图识别方法在获取当前帧人体行为特征的步骤之前还包括构建具有平移不变和缩放不变的人体结构特征的步骤。
进一步的,在构建具有平移不变和缩放不变的人体结构特征时,考虑到体型的个体差异,定义满足平移不变和缩放不变的条件的关节向量夹角和上肢部分关节向量模比值作为人体行为特征,关节向量夹角和向量模比值共同组成24维人体行为特征。
进一步的,上肢部分关节向量模比值:
r 1 = | b &RightArrow; | | a &RightArrow; | , r 2 = | c &RightArrow; | | a &RightArrow; | , r 3 = | d &RightArrow; | | a &RightArrow; | , r 4 = | e &RightArrow; | | a &RightArrow; | ,
其中是躯干中心到头部的向量模,分别是头部指向左右手的向量模、分别是躯干中心到左右手的向量模。
进一步的,平移不变和缩放不变的关节向量夹角信息的获取:通过OPENNI检测人体的15个关节点分布式信息,经过计算,可获取关节向量夹角信息,具体包括上肢部分10组,下肢部分4组,中间连接部分6组。
本发明的有益效果:
通过构建分布式RGBD传感器网络,利用信息一致性算法,实现了对人体关节点的分布式估计,网络中无数据融合中心,提高了系统对节点信息错误和无效的鲁棒性,较容易实现对传感器网络的扩展。
传感器节点只与周围邻近连接节点通讯,交换信息向量、信息矩阵和信息贡献,相较于传输原始的RGBD数据,极大的减少了数据量。
一致性算法实现了与网络中传感器节点的有效融合,间接实现了对目标的多角度观测,减少了遮挡或角度对人体关节点估计的影响,扩大了感知范围。
提出了基于交互多模型的人体关节点分布式信息一致性估计方法,以应对人体不同关节点时变的运动模式。
提出了基于彩色图像和深度图像多特征的联合数据关联方法,以提高JPDA算法估计精度和执行效率。
提出了基于平移不变和缩放不变人体行为特征的分布式DTW人体行为意图识别方法,以实现精确的人体特定行为识别。
移动机器人和静态传感网络协作的分布式人体行为感知和智能化服务。静态传感器位置固定,视角有限,不具备移动服务能力。针对此问题,建立移动机器人和静态传感器任务协作机制,一方面针对观测盲区提供近距离观察,另一方面针对人体特殊行为提供相应智能化服务。
附图说明
图1本发明的基于动态三维RGBD传感器网络的分布式示意图;
图2本发明的分布式三维传感器网络对人体关节点的多模型估计流程图;
图3本发明的分布式多人体目标关节点跟踪算法流程;
图4机器人任务协作黑板模型;
图5人体关节点示意图(15个关节点)。
具体实施方式:
下面结合附图对本发明进行详细说明:
如图1所示,基于交互多模型的人体关节点分布式信息一致性估计方法,通过构建动态分布式RGBD传感器网络,实现对数据的分布式处理和对信息的分布式融合,网络中无集中式信息处理和融合中心,传感器节点只与邻近节点信息交换,通过有限次一致性迭代,实现网络内对感知目标状态的估计一致。
传感器网络通过无线通信实现信息的传输。每个传感器连接到本地处理器,可以是微型电脑或ARM开发板。本地处理器对信息处理后,通过无线与邻近节点进行网络数据交换。动态是指网络由位置静态的传感器和位置可移动的传感器组成。其中,位置移动通过将传感器放置在移动机器人上实现。分布式通过信息的分布式计算和融合来实现。
如图2所示,骨架关节点位置初始化:通过对关节点深度信息预先学习训练,实现对每帧人体关节点的检测,也可利用现有工具OPENNI NITE或微软SDK直接提取关节点。为去除无效关节点,建立人体关节点运动模型物理约束,剔除不满足人体关节点旋转角度和长度约束的人体关节点。物理约束模型的相关参数,如人体肘关节和肩关节之间长度,可依据检测数据自适应升级。
其中,关节点深度信息是通过微软Kinect开发包或开源OpenNI驱动软件获取场景的RGB图像和深度图像。
预先学习训练的目的是为了构建关节点特征库,从而实现对待检测图像中的关节点的分类和识别。
RGBD传感器提供场景颜色和深度图像。关节点检测模块从图像中提取人体关节点。
人体关节点运动模型物理约束相关技术内容可参考论文Model-BasedReinforcement of Kinect Depth Data for Human Motion Capture Applications。
本地RGBD传感器对关节点运动估计:构建人体关节点的运动模型和观测模型,基于贝叶斯滤波器,实现对关节点状态(位置、速度和加速度)的有效估计。人体关节点的运动存在静止、匀速、加速交替进行的多模型属性,单一运动模型不足以描述关节点动态特征,因此设计基于交互多模型的贝叶斯估计方法,对人体关节点的时变状态进行有效跟踪估计。对线性模型,可利用线性信息滤波器估计,而对于非线性模型,可利用扩展信息滤波器和基于中心差分信息滤波器等非线性滤波器进行估计。
观测模型是指滤波器系统状态与传感器观测之间的模型关系。在这里,系统状态是指关节点三维位置、速度和加速度,而传感器观测是关节点三维位置。
有效估计的具体算法可参考论文Central Difference Information Filterwith Interacting Multiple Model for Robust Maneuvering Object Tracking。
RGBD传感器之间对目标关节点的信息一致性估计:定义人体关节点状态对应的信息向量、信息矩阵及其信息贡献和模型概率作为信息一致性算法的交换量,每个传感器将自身估计的关节点信息向量、信息矩阵及其对应的信息贡献、模型概率发送给相邻的通讯传感器节点,并接受周围传感器的信息,利用信息一致性算法,融合周围传感器的估计结果,连续迭代数次,实现算法和估计结果的收敛。具体步骤如下:
第一步是系统参数初始化,其中人体关节点的初始位置可通过OPENNI直接从RGBD相机的深度图像检测得出,位置的方差可依据OPENNI返回的关节点识别的置信水平确定,并依据关节运动特点设定关节的运动模型转换概率。
第二步是多模型交互,即根据模型概率和模型转换概率计算模型之间的混合概率,再依据混合概率计算得出每个模型的混合均值和混合方差。
第三步是信息滤波,以混合均值和混合方差为输入,计算其信息向量和信息矩阵,对线性和非线性运动模型分别采用线性信息滤波器和中心差分信息滤波器估计,根据当前深度图像检测的关节点位置升级滤波器关节点状态(信息向量和信息矩阵)和模型概率。
第四步是基于分布式信息一致性算法的信息融合,即各传感器之间交换关节点估计信息,包括关节点状态信息向量、信息矩阵和模型概率,通过一致性算法加权迭代实现各传感器估计状态的一致性,如传感器节点i和传感器节点j是相邻通讯节点,两者之间的Metroplis权重为εi,j,则在第r次迭代其信息向量信息矩阵和模型概率可由其所有相邻节点j的相应信息加权和计算得出:
y i r = &Sigma; j &epsiv; i , j y j r , Y i r = &Sigma; j &epsiv; i , j Y j r , &mu; i r = &Sigma; j &epsiv; i , j &mu; j r
第五步是各传感器节点基于模型概率加权和的混合输出,即利用模型概率对各个模型的估计结果进行加权求和,作为各传感器信息处理系统当前时刻的估计结果。
如图3所示,基于彩色图像和深度图像多特征的联合数据关联方法,该方法针对多目标跟踪,包括:
系统参数初始化;
多模型交互;
基于线性信息滤波器的JPDA及基于中心差分信息滤波器的JPDA;
发送本地信息给临近传感器节点;
接收临近传感器节点信息;
基于马氏距离的数据关联;
分布式信息一致性算法实现多模型结果融合。
分布式人体行为意图识别包括:构建具有平移不变和缩放不变的人体结构特征,建立人体行为意图数据库模板,结合动态时间规整算法,实现对特定行为匹配概率的计算。
可见,分布式人体行为意图识别,包含两部分:首先是匹配概率的融合,即融合网络内其他传感器对该行为的匹配概率,改善本地识别准确率;其次是识别结果的一致性估计,保证识别结果的全局一致。
具体过程如下:考虑到体型的个体差异,可定义平移不变和缩放不变的关节向量夹角和上肢部分关节向量模比值作为人体行为特征。OPENNI可检测人体的15个关节点,如图5所示,经过计算,可获取关节向量夹角信息,具体包括上肢部分10组,下肢部分4组,中间连接部分6组。
其中,关节向量及其夹角的计算可参考论文:应用Kinect的人体行为识别方法研究与系统设计。
另外,为进一步描述上肢行为的细节部分信息,定义上肢部分关节向量之间的模比值作为特征:
r 1 = | b &RightArrow; | | a &RightArrow; | , r 2 = | c &RightArrow; | | a &RightArrow; | , r 3 = | d &RightArrow; | | a &RightArrow; | , r 4 = | e &RightArrow; | | a &RightArrow; | ,
其中是躯干中心到头部的向量模,分别是头部指向左右手的向量模、分别是躯干中心到左右手的向量模。关节向量夹角和向量模比值共同组成24维人体行为特征,满足平移不变和缩放不变的条件。
在获取当前帧人体行为特征后,将其添加到人体行为特征时间序列中,利用动态时间规整算法(Dynamic Time Warping,DTW)对当前观测行为特征序列与数据库中已学习的特定行为序列模板进行匹配,计算两者之间基于卡方距离的最佳匹配相似度。对该相似度取逆,经归一化后得到匹配概率。为融合周围传感器识别结果,相邻连接传感器之间互换匹配概率信息,如第i个传感器将k时刻动作模式α对应的匹配概率与相邻传感器节点j计算的匹配概率进行数据交换,并依据动作模式之间的转移概率矩阵M,确定动作模式α的概率值
w 1 &alpha; ( k ) = &eta; ( k ) &Pi; j v j &alpha; ( k ) ( &Sigma; &beta; M ( &beta; , &alpha; ) w i &beta; ( k - 1 ) ) ,
其中η(k)是归一化因子,M(β,α)是动作模式β和动作模式α之间的转移概率值。
最后,将每个传感器的动作模式概率值作为一致性信息量与相邻传感器再一次数据交换,经过一致性迭代运算,最终相邻传感器节点的识别结果达成一致,这就构建了基于DTW的分布式行为意图识别算法。
若最终的大于一定阈值,则可认定当前观测目标动作序列与动作模式α匹配成功。
移动机器人与静态传感器任务协作:两类任务需要移动机器人协作完成,一类是针对用户特定行为的机器人服务,一类是针对特定目标的近距离观测。前者需在行为识别结果基础上,结合机器人服务能力,利用合同网方法参与竞标服务,如静态传感器识别出老人摔倒动作后,机器人前去查看并提供帮助。后者则是在静态传感器对人体某个关节点估计误差较大时,发起近距离查看任务请求,由相邻移动机器人竞标该任务并执行,将观测结果发送给静态传感器。移动机器人和静态传感器之间的任务协作主要通过黑板模型完成,包含两大部分:黑板区(Black Board Field,BBF)和知识库。
黑板区的功能是信息存储,包含局目标库、机器人状态列表、决策选择、请求序列和任务列表。全局目标库包含所跟踪目标的ID号、图像特征等信息。机器人状态列表内包含本地机器人和周围连接机器人当前状态信息。决策选择是机器人执行任务时的决策选择机制。请求序列机器人发出的任务请求,如静态机器人发出的周围动态机器人对目标机动跟踪的请求。任务列表内包含机器人当前任务和未来任务等。
知识库的作用是包含机器人各个功能模块,如任务分配算法、信息计算、请求处理和指令发送等模块。任务分配算法是指如何分配一个特定任务给特定的机器人,如市场机制任务分配法中的招投标机制。信息计算是机器人所包含的特定信息计算能力,如对目标位置的估计、跟踪、插值计算等。请求处理是指接受其他机器人的任务请求。指令发送是指接受任务后,发送指令给低层控制单元,驱动机器人按照指令运动。
图4显示了移动机器人黑板模型架构,而静态传感器黑板模型除不具备移动执行能力外,其他相同。黑板区会通过实时数据进行更新,进一步驱动知识库中的相应模块,如驱动合同网模块进行任务招标和投标的相关工作,可依据目标和机器人距离作为投标参数,距离近者优先中标。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.基于传感网络的移动机器人与静态传感器的任务协作方法,其特征是,包括以下步骤:
构建动态分布式传感器网络,对获取的人体的关节点分布式信息进行一致性的估计;
对人体关节点分布式信息进行一致性的估计后进行基于彩色图像和深度图像多特征的联合数据关联;
基于人体行为特征的分布式DTW人体行为意图识别;
在行为识别结果基础上,移动机器人利用合同网方法参与竞标服务,针对用户特定行为进行机器人服务;
在静态传感器对人体某个关节点估计误差超过设定值时,发起近距离查看任务请求,由相邻移动机器人竞标该任务并执行,将观测结果发送给静态传感器,实现对特定目标的近距离观测。
2.如权利要求1所述的基于传感网络的移动机器人与静态传感器的任务协作方法,其特征是,移动机器人和静态传感器之间的任务协作主要通过黑板模型完成,包含两大部分:黑板区和知识库,黑板区通过实时数据进行更新,进一步驱动知识库中的相应模块。
3.如权利要求1所述的基于传感网络的移动机器人与静态传感器的任务协作方法,其特征是,对获取的人体的关节点分布式信息进行一致性的估计,具体包括:
骨架关节点位置初始化;
本地传感器对关节点运动估计:构建人体关节点的运动模型和观测模型,实现对关节点状态的有效估计;
传感器之间对目标关节点的信息一致性估计:定义人体关节点状态对应的信息向量、信息矩阵及其信息贡献和模型概率作为信息一致性算法的交换量;
每个传感器将自身估计的关节点信息向量、信息矩阵及其对应的信息贡献、模型概率发送给相邻的通讯传感器节点,并接受周围传感器的信息,利用信息一致性算法,融合周围传感器的估计结果,连续迭代数次,实现算法和估计结果的收敛。
4.如权利要求3所述的基于传感网络的移动机器人与静态传感器的任务协作方法,其特征是,基于构建的动态分布式传感器网络,传感器将采集的人体骨架关节点信息传输至信息处理中心。
5.如权利要求3所述的基于传感网络的移动机器人与静态传感器的任务协作方法,其特征是,在骨架关节点位置初始化时,为去除无效关节点,建立人体关节点运动模型物理约束,剔除不满足人体关节点旋转角度和长度约束的人体关节点。
6.如权利要求3所述的基于传感网络的移动机器人与静态传感器的任务协作方法,其特征是,构建人体关节点的运动模型和观测模型,其中,对线性模型,利用线性信息滤波器估计,而对于非线性模型,利用非线性滤波器进行估计,非线性滤波器包括扩展信息滤波器和基于中心差分信息滤波器。
7.如权利要求1所述的基于传感网络的移动机器人与静态传感器的任务协作方法,其特征是,对人体关节点分布式信息进行一致性的估计后进行基于彩色图像和深度图像多特征的联合数据关联,包括以下步骤:
采用联合数据概率关联算法实现本地传感器节点对跟踪目标和目标观测之间进行第一次数据关联;
基于马氏距离的匈牙利算法实现传感器节点之间对跟踪目标的第二次数据关联;
各传感器之间交换关节点估计信息,通过一致性算法加权迭代实现各传感器估计状态的一致性;
其中,在第一次数据关联时,基于多特征的目标观测候选集调整机制,利用关节点位置观测信息z、彩色图像梯度方向直方图特征hc和深度图像梯度方向直方图特征hd构建三个阈值门限(γzcd)以限定观测集大小。
8.如权利要求1所述的基于传感网络的移动机器人与静态传感器的任务协作方法,其特征是,基于人体行为特征的分布式DTW人体行为意图识别方法,包括以下步骤:
获取当前帧人体行为特征并将其添加到人体行为特征时间序列中;
利用动态时间规整算法DTW对当前观测人体行为特征序列与数据库模板中已学习的特定行为序列进行匹配,计算两者之间基于卡方距离的最佳匹配相似度;
对该相似度取逆,经归一化后得到匹配概率;
将每个传感器的动作模式概率值作为一致性信息量与相邻传感器再一次数据交换,经过一致性迭代运算,最终相邻传感器节点的识别结果达成一致。
9.如权利要求8所述的基于传感网络的移动机器人与静态传感器的任务协作方法,其特征是,在计算匹配概率时,为融合周围传感器识别结果,相邻连接传感器之间互换匹配概率信息。
10.如权利要求9所述的基于传感网络的移动机器人与静态传感器的任务协作方法,其特征是,基于人体行为特征的分布式DTW人体行为意图识别方法在获取当前帧人体行为特征的步骤之前还包括构建具有平移不变和缩放不变的人体结构特征的步骤;
在构建具有平移不变和缩放不变的人体结构特征时,考虑到体型的个体差异,定义满足平移不变和缩放不变的条件的关节向量夹角和上肢部分关节向量模比值作为人体行为特征,关节向量夹角和向量模比值共同组成24维人体行为特征。
CN201610442907.2A 2016-06-16 2016-06-16 基于传感网络的移动机器人与静态传感器的任务协作方法 Active CN106096565B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610442907.2A CN106096565B (zh) 2016-06-16 2016-06-16 基于传感网络的移动机器人与静态传感器的任务协作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610442907.2A CN106096565B (zh) 2016-06-16 2016-06-16 基于传感网络的移动机器人与静态传感器的任务协作方法

Publications (2)

Publication Number Publication Date
CN106096565A true CN106096565A (zh) 2016-11-09
CN106096565B CN106096565B (zh) 2019-08-27

Family

ID=57237939

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610442907.2A Active CN106096565B (zh) 2016-06-16 2016-06-16 基于传感网络的移动机器人与静态传感器的任务协作方法

Country Status (1)

Country Link
CN (1) CN106096565B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921047A (zh) * 2018-06-12 2018-11-30 江西理工大学 一种基于跨层融合的多模型投票均值动作识别方法
CN109034120A (zh) * 2018-08-27 2018-12-18 合肥工业大学 面向智能设备自主行为的场景理解方法
CN111222437A (zh) * 2019-12-31 2020-06-02 浙江工业大学 一种基于多深度图像特征融合的人体姿态估计方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102413482A (zh) * 2011-11-14 2012-04-11 北京邮电大学 基于合同网的无线传感器任务分配方法
CN103716867A (zh) * 2013-10-25 2014-04-09 华南理工大学 基于事件驱动的无线传感器网络多目标实时跟踪系统
CN103729859A (zh) * 2013-12-30 2014-04-16 西北工业大学 一种基于模糊聚类的概率最近邻域多目标跟踪方法
CN104899561A (zh) * 2015-05-27 2015-09-09 华南理工大学 一种并行化的人体行为识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102413482A (zh) * 2011-11-14 2012-04-11 北京邮电大学 基于合同网的无线传感器任务分配方法
CN103716867A (zh) * 2013-10-25 2014-04-09 华南理工大学 基于事件驱动的无线传感器网络多目标实时跟踪系统
CN103729859A (zh) * 2013-12-30 2014-04-16 西北工业大学 一种基于模糊聚类的概率最近邻域多目标跟踪方法
CN104899561A (zh) * 2015-05-27 2015-09-09 华南理工大学 一种并行化的人体行为识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DU YONG KIM等: "Data Fusion in 3D Vision Using a RGB-D Data Via Switching Observation Model and Its Application to People", 《ICCAIS 2013》 *
尹建芹等: "基于关键点序列的人体动作识别", 《机器人》 *
田国会等: "一种基于关节点信息的人体行为识别新方法", 《机器人》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921047A (zh) * 2018-06-12 2018-11-30 江西理工大学 一种基于跨层融合的多模型投票均值动作识别方法
CN108921047B (zh) * 2018-06-12 2021-11-26 江西理工大学 一种基于跨层融合的多模型投票均值动作识别方法
CN109034120A (zh) * 2018-08-27 2018-12-18 合肥工业大学 面向智能设备自主行为的场景理解方法
CN109034120B (zh) * 2018-08-27 2022-05-10 合肥工业大学 面向智能设备自主行为的场景理解方法
CN111222437A (zh) * 2019-12-31 2020-06-02 浙江工业大学 一种基于多深度图像特征融合的人体姿态估计方法

Also Published As

Publication number Publication date
CN106096565B (zh) 2019-08-27

Similar Documents

Publication Publication Date Title
CN106127125B (zh) 基于人体行为特征的分布式dtw人体行为识别方法
Ren et al. Depth camera based hand gesture recognition and its applications in human-computer-interaction
Mishkin et al. Benchmarking classic and learned navigation in complex 3d environments
CN105512621A (zh) 一种基于Kinect的羽毛球动作指导系统
CN109859245A (zh) 视频目标的多目标跟踪方法、装置及存储介质
CN107423730A (zh) 一种基于语义折叠的人体步态行为主动检测识别系统和方法
CN104899561A (zh) 一种并行化的人体行为识别方法
CN111402290A (zh) 一种基于骨骼关键点的动作还原方法以及装置
CN103714322A (zh) 一种实时手势识别方法及装置
CN101154289A (zh) 基于多目相机的三维人体运动跟踪的方法
CN105869181A (zh) 基于交互多模型的人体关节点分布式信息一致性估计方法
Abobakr et al. A kinect-based workplace postural analysis system using deep residual networks
CN106127119B (zh) 基于彩色图像和深度图像多特征的联合数据关联方法
CN106096565A (zh) 基于传感网络的移动机器人与静态传感器的任务协作方法
CN111309035B (zh) 多机器人协同移动与动态避障方法、装置、设备及介质
CN110738650A (zh) 一种传染病感染识别方法、终端设备及存储介质
CN109829405A (zh) 视频目标的数据关联方法、装置及存储介质
Jing et al. Sports image detection based on FPGA hardware system and particle swarm algorithm
Li et al. A YOLO-GGCNN based grasping framework for mobile robots in unknown environments
Batool et al. Telemonitoring of daily activities based on multi-sensors data fusion
Siddiq et al. Integrated Internet of Things (IoT) technology device on smart home system with human posture recognition using kNN method
Yu et al. A deep-learning-based strategy for kidnapped robot problem in similar indoor environment
Ding et al. Simultaneous body part and motion identification for human-following robots
CN111681302A (zh) 一种3d虚拟形象的生成方法、装置、电子设备及存储介质
Weinrich et al. Appearance-based 3D upper-body pose estimation and person re-identification on mobile robots

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant