CN109063739A - 一种基于svm与强化学习的室内场景识别方法 - Google Patents

一种基于svm与强化学习的室内场景识别方法 Download PDF

Info

Publication number
CN109063739A
CN109063739A CN201810726023.9A CN201810726023A CN109063739A CN 109063739 A CN109063739 A CN 109063739A CN 201810726023 A CN201810726023 A CN 201810726023A CN 109063739 A CN109063739 A CN 109063739A
Authority
CN
China
Prior art keywords
training
indoor scene
svm
intensified learning
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810726023.9A
Other languages
English (en)
Inventor
黄学艺
刘华平
宋彦
袁胜
赵江海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Sino-Science Automation System Co Ltd
Original Assignee
Hefei Sino-Science Automation System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Sino-Science Automation System Co Ltd filed Critical Hefei Sino-Science Automation System Co Ltd
Priority to CN201810726023.9A priority Critical patent/CN109063739A/zh
Publication of CN109063739A publication Critical patent/CN109063739A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于SVM与强化学习的室内场景识别方法,该方法包括以下步骤:(1)室内场景采集数据,训练一个能够进行室内场景分类的SVM分类器Ns;(2)进行多次室内场景主动识别实验,在实验过程中,训练一个拟合强化学习值函数的强化学习神经网络,将该网络命名为决策网络NQ,决策网络NQ通过Ns判别分类结果优劣;(3)完成决策网络NQ的训练后,采用决策网络NQ根据激光测距传感器当前获取的房间激光测距信息,对机器人动作做出决策并执行动作,执行动作后再次采集激光测距传感器信息输入到NQ中,如此重复三次,将三次所得结果进行融合得到最终分类结果。该方法将激光测距信息转化为场景轮廓图环投影信息用SVM进行场景识别,减少了运算量,提高场景识别正确率。

Description

一种基于SVM与强化学习的室内场景识别方法
技术领域
本发明涉及一种室内场景识别方法,尤其涉及一种基于SVM与强化学习的室内场景识别方法。
背景技术
近年来,机器人场景识别已经以用于越来越多的机器人定位功能中。机器人在陌生环境中尽快识别所处环境类型,为其实现其它各种功能比如路径规划、行为控制等奠定了基础。现阶段的应用场景中,机器人搭载的激光传感器仅能获取前方180°的距离信息,由于机器人方位的局限性和低成本传感器的数据局限性造成场景识别准确率低下。
现有一份发明专利申请文件,专利申请主题为“一种基于单隐层神经网络的场景识别方法”,申请公开号为105678278A,公开的技术方案为:在训练阶段通过对预先采集的样本图像集进行预处理,提取样本图集提取局部梯度统计特征,将特征同其对应标签一同输入到单隐层分类神经网络进行监督式学习;在识别阶段对待识别的图像进行预处理并提取特征输入到训练好的场景分类神经网络中进行识别,得到识别结果。该方法的缺点是,采用场景图片作为训练样本数据,样本体积庞大复杂,造成运算缓慢;只能依靠采集样本数据的丰富程度来提高识别准确率,工作量庞大。
发明内容
本发明的目的是提供一种基于SVM与强化学习的室内场景识别方法,为了解决现有技术只能依靠采集样本数据的丰富程度来提高识别准确率,工作量庞大的问题。
为了实现上述目的,本发明采用了如下技术方案:
本发明提供一种基于SVM与强化学习的室内场景识别方法,该方法包括以下步骤:
(1)室内场景采集数据,训练一个能够进行室内场景分类的SVM分类器Ns
(2)进行多次室内场景主动识别实验,在实验过程中,训练一个拟合强化学习值函数的强化学习神经网络,将该网络命名为决策网络NQ,决策网络NQ通过Ns判别分类结果优劣;
(3)完成决策网络NQ的训练后,采用决策网络NQ根据激光测距传感器当前获取的房间激光测距信息,对机器人动作做出决策并执行动作,执行动作后再次采集激光测距传感器信息输入到NQ中,如此重复三次,将三次所得结果进行融合得到最终分类结果。
优选地,所述步骤(1)具体步骤如下:
(1-1)室内场景采集激光雷达数据,命名为数据集D;
(1-2)数据集D中随机挑选Ntrain组样本,记为训练集样本Dtrain={d1,d2,L,dNtrain},以及标签S中与其相对应的训练集标签Strain={s1,s2,L strain};
(1-3)利用训练集{Dtrain,Strain}训练SVM分类器Ns并保存训练参数,核函数选为‘rbf’,核函数核宽设定为1。
优选地,所述步骤(1-1)具体步骤如下:
(1-1-1)每个室内场景设定多个采集点,采集数据,包括数据和标签,标签为房间类别;
(1-1-2)激光雷达测距信息角度为360°,采集方式为定点转向采集,每次转动1°并采集激光雷达信息,采集的信息为360个距离信息,每组数据包含一个含有360个距离信息的数据和一个该距离所对应的房间类型标签。
优选地,所述步骤(2)通过决策网络NQ判断2种动作的优劣,具体步骤如下:
(2-1)场景标签设为S={S1,S2,L,Sk},每个室内场景中选择若干个训练点;
(2-2)设定每点最大训练步数e;
(2-3)在其中一个训练点开始训练决策网络NQ,采集一次激光雷达数据Ht,输入到训练好的Ns中进行预测,预测分类向量记为Tt
(2-4)将Ht输入到决策网络NQ中,获得所有动作的动作价值Q(q1,q2,L,qn),择其中最大价值对应的动作a执行,动作a包括向左旋转15°,向右旋转15°;
(2-5)执行动作a后再次采集激光雷达数据Ht+1,输入到Ns中进行预测,预测结果记为Tt+1
(2-6)判断分类结果好坏;
(2-7)更新该状态下该动作对应的动作价值:
其中α∈(0,1)为学习速率,表示新价值覆盖旧价值的程度;γ∈(0,1)为折损因子,代表下一步回报的重要程度;
(2-8)使用随机梯度下降方式反向更新NQ网络参数;
(2-9)判断是否到达该点规定训练步数e,如果达到则至下一点继续训练,回到(2-2),否则重复步骤(2-3)至(2-8);
(2-10)若已处在最后一处训练点,终止训练。
优选地,所述步骤(2-6)具体步骤如下:
(2-6-1)如果则预测成功,设定回报r=1;
(2-6-2)如果则识别失败,设定回报r=-1。
优选地,所述步骤(2)中的决策网络NQ是一个单隐层神经网络,隐藏层节点设定为20,网络输入为激光雷达采集一次的360个距离信息,输入为每个动作对应的动作价值。
优选地,所述步骤(3)具体包括以下步骤:
(3-1)获取激光雷达数据Ht,输入到Ns中获得分类向量Tt
(3-2)Ht输入到决策网络NQ中并执行动作价值最大的动作a;
(3-3)获取激光雷达数据Ht+1,输入到Ns中获得分类向量Tt+1
(3-4)Ht+1输入到决策网络NQ中并执行动作价值最大的动作a;
(3-5)获取激光雷达数据Ht+2,输入到Ns中获得分类向量Tt+1
(3-6)Ht+2输入到决策网络NQ中并执行动作价值最大的动作a;
(3-7)对结果T(Tt,Tt+1,Tt+2)进行投票,三次预测中每次分类标签中数值最大的一类得1分,最终选择得分最高的一类作为最终结果;如果有三类均得1分则选择argmaxT(Tt,Tt+1,Tt+2)所在类别作为最终结果。
该方法包括训练一个能够对识别激光雷达信息二值化轮廓图环投影信息的SVM分类器;在强化学习训练阶段:进行多次室内场景分类实验,在实验过程中训练一个拟合强化学习值函数的神经网络NQ使其拟合为一个函数逼近器;NQ训练完成后进入执行阶段:根据激光雷达采集场景轮廓信息,对机器人室内场景主动识别功能进行测试,通过强化学习网络根据多次识别结果融合后的识别正确率判断机器人“左转”、“右转”两种动作的优劣,从而做出决策,找到更佳明显的分类特征,提高场景识别的正确率。该发明中提出的方法,提高了场景识别正确率。能够适应不同场景识别的任务,是一个机器人主动学习,自主识别所在场景的方法。
本发明有益效果:本发明提出一种基于SVM与强化学习相结合的室内场景识别方法,提高了场景识别的正确率。本发明机器人可以通过左转、右转一定角度来找到合适的数据采集方位角,利用反向传播神经网络作为强化学习值函数的逼近器,将激光测距传感器信息输入强化神经网络,使神经网络学习到这些角度,以便机器人能够迅速找到这些角度,将激光测距信息转化为场景轮廓图环投影信息用SVM进行场景识别,减少了运算量,提高场景识别正确率,解决了现有技术只能依靠采集样本数据的丰富程度来提高识别准确率,工作量庞大的问题。
具体优势如下:
(1)本发明采用强化学习使机器人能够自主学习去获取更加明显的分类特征,无需人为干预;
(2)本发明采用多结果投票融合的方式,极大提高了结果的准确性和可靠性。
附图说明
图1是本发明装置正视图,1部分为pioneer3-AT机器人,2部分为SickLMS-200激光雷达,能够测量机器人前方180°范围的距离信息,最大测距距离为80m。
图2是本发明的训练流程图。
图3是本发明的应用流程图。
具体实施方式
为了加深对本发明的理解,下面将结合附图和实施例对本发明作进一步详细描述,本实施例仅用于解释本发明,并不对本发明的保护范围构成限定。
本实施例提出一种基于SVM与强化学习的室内场景识别方法,该方法包括以下步骤:
(1)室内场景采集数据,训练一个能够进行室内场景分类的SVM分类器Ns,假设有四类场景,分别设为1、2、3、4,具体步骤如下:
(1-1)室内场景采集激光雷达数据,命名为数据集D,具体步骤如下:
(1-1-1)每个室内场景设定多个采集点,采集数据,包括数据和标签,标签为房间类别,分别为1、2、3、4;
(1-1-2)激光雷达测距信息角度为360°,采集方式为定点转向采集,每次转动1°并采集激光雷达信息,采集的信息为360个距离信息,每组数据包含一个含有360个距离信息的数据和一个该距离所对应的房间类型标签(若该组距离信息实在房间3中采集的,则其标签为3);
(1-2)数据集D中随机挑选组样本,记为训练集样本Dtrain={d1,d2,L,dNtrain},以及标签S中与其相对应的训练集标签Strain={s1,s2,L strain};
(1-3)利用训练集{Dtrain,Strain}训练SVM分类器Ns并保存训练参数,核函数选为‘rbf’,核函数核宽设定为1;
(2)进行多次室内场景主动识别实验,在实验过程中,训练一个拟合强化学习值函数的强化学习神经网络,将该网络命名为NQ,(该网络是一个单隐层神经网络,隐藏层节点设定为20,网络输入为激光雷达采集一次的360个距离信息,输入为每个动作对应的动作价值)决策网络NQ通过Ns判别分类结果优劣,通过决策网络NQ判断2种动作的优劣,具体步骤如下:
(2-1)场景标签设为S={S1,S2,L,Sk},每个室内场景中选择若干个训练点;
(2-2)设定每点最大训练步数e;
(2-3)在其中一个训练点开始训练决策网络NQ,采集一次激光雷达数据Ht,输入到训练好的Ns中进行预测,预测分类向量记为Tt
(2-4)将Ht输入到决策网络NQ中,获得所有动作的动作价值Q(q1,q2,L,qn),择其中最大价值对应的动作a执行,动作a包括向左旋转15°,向右旋转15°;
(2-5)执行动作a后再次采集激光雷达数据Ht+1,输入到Ns中进行预测,预测结果记为Tt+1
(2-6)判断分类结果好坏,具体步骤如下:
(2-6-1)如果则预测成功,设定回报r=1;
(2-6-2)如果则识别失败,设定回报r=-1;
(2-7)更新该状态下该动作对应的动作价值:
其中α∈(0,1)为学习速率,表示新价值覆盖旧价值的程度;γ∈(0,1)为折损因子,代表下一步回报的重要程度;
(2-8)使用随机梯度下降方式(SGD优化器)反向更新NQ网络参数;
(2-9)判断是否到达该点规定训练步数e,如果达到则至下一点继续训练,回到(2-2),否则重复步骤(2-3)至(2-8);
(2-10)若已处在最后一处训练点,终止训练;
(3)完成决策网络NQ的训练后,采用决策网络NQ根据激光测距传感器当前获取的房间激光测距信息,对机器人动作做出决策并执行动作,执行动作后再次采集激光测距传感器信息输入到NQ中,如此重复三次,将三次所得结果进行融合得到最终分类结果。
(3-1)获取激光雷达数据Ht,输入到Ns中获得分类向量Tt
(3-2)Ht输入到决策网络NQ中并执行动作价值最大的动作a;
(3-3)获取激光雷达数据Ht+1,输入到Ns中获得分类向量Tt+1
(3-4)Ht+1输入到决策网络NQ中并执行动作价值最大的动作a;
(3-5)获取激光雷达数据Ht+2,输入到Ns中获得分类向量Tt+1
(3-6)Ht+2输入到决策网络NQ中并执行动作价值最大的动作a;
(3-7)对结果T(Tt,Tt+1,Tt+2)进行投票,三次预测中每次分类标签中数值最大的一类得1分,最终选择得分最高的一类作为最终结果;如果有三类均得1分则选择argmaxT(Tt,Tt+1,Tt+2)所在类别作为最终结果。
本发明的目的是为了提高场景识别准确率,提出了一种基于SVM与强化学习的室内机器人主动识别方法,本方法通过强化学习算法,提高了室内场景识别的准确率。本发明采用的机器人可以通过“左转”“右转”两种方式调节朝向角,获取不同角度的轮廓信息,利用强化学习神经网络作为强化学习值函数的逼近器,将室内场景轮廓信息输入强化学习神经网络,从而确定当前机器人做出何种动作来正确识别当前场景。本发明采用SVM作为分类神经网络,配合强化学习的训练动态地学习识别场景最合适的机器人朝向角,识别准确率也获得了较大提升。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (7)

1.一种基于SVM与强化学习的室内场景识别方法,其特征在于,该方法包括以下步骤:
(1)室内场景采集数据,训练一个能够进行室内场景分类的SVM分类器Ns
(2)进行多次室内场景主动识别实验,在实验过程中,训练一个拟合强化学习值函数的强化学习神经网络,将该网络命名为决策网络NQ,决策网络NQ通过Ns判别分类结果优劣;
(3)完成决策网络NQ的训练后,采用决策网络NQ根据激光测距传感器当前获取的房间激光测距信息,对机器人动作做出决策并执行动作,执行动作后再次采集激光测距传感器信息输入到NQ中,如此重复三次,将三次所得结果进行融合得到最终分类结果。
2.根据权利要求1所述的一种基于SVM与强化学习的室内场景识别方法,其特征在于,所述步骤(1)具体步骤如下:
(1-1)室内场景采集激光雷达数据,命名为数据集D;
(1-2)数据集D中随机挑选Ntrain组样本,记为训练集样本Dtrain={d1,d2,L,dNtrain},以及标签S中与其相对应的训练集标签Strain={s1,s2,L strain};
(1-3)利用训练集{Dtrain,Strain}训练SVM分类器Ns并保存训练参数,核函数选为‘rbf’,核函数核宽设定为1。
3.根据权利要求2所述的一种基于SVM与强化学习的室内场景识别方法,其特征在于,所述步骤(1-1)具体步骤如下:
(1-1-1)每个室内场景设定多个采集点,采集数据,包括数据和标签,标签为房间类别;
(1-1-2)激光雷达测距信息角度为360°,采集方式为定点转向采集,每次转动1°并采集激光雷达信息,采集的信息为360个距离信息,每组数据包含一个含有360个距离信息的数据和一个该距离所对应的房间类型标签。
4.根据权利要求1所述的一种基于SVM与强化学习的室内场景识别方法,其特征在于,所述步骤(2)通过决策网络NQ判断2种动作的优劣,具体步骤如下:
(2-1)场景标签设为S={S1,S2,L,Sk},每个室内场景中选择若干个训练点;
(2-2)设定每点最大训练步数e;
(2-3)在其中一个训练点开始训练决策网络NQ,采集一次激光雷达数据Ht,输入到训练好的Ns中进行预测,预测分类向量记为Tt
(2-4)将Ht输入到决策网络NQ中,获得所有动作的动作价值Q(q1,q2,L,qn),择其中最大价值对应的动作a执行,动作a包括向左旋转15°,向右旋转15°;
(2-5)执行动作a后再次采集激光雷达数据Ht+1,输入到Ns中进行预测,预测结果记为Tt+1
(2-6)判断分类结果好坏;
(2-7)更新该状态下该动作对应的动作价值:
其中α∈(0,1)为学习速率,表示新价值覆盖旧价值的程度;γ∈(0,1)为折损因子,代表下一步回报的重要程度;
(2-8)使用随机梯度下降方式反向更新NQ网络参数;
(2-9)判断是否到达该点规定训练步数e,如果达到则至下一点继续训练,回到(2-2),否则重复步骤(2-3)至(2-8);
(2-10)若已处在最后一处训练点,终止训练。
5.根据权利要求4所述的一种基于SVM与强化学习的室内场景识别方法,其特征在于,所述步骤(2-6)具体步骤如下:
(2-6-1)如果则预测成功,设定回报r=1;
(2-6-2)如果则识别失败,设定回报r=-1。
6.根据权利要求1所述的一种基于SVM与强化学习的室内场景识别方法,其特征在于,所述步骤(2)中的决策网络NQ是一个单隐层神经网络,隐藏层节点设定为20,网络输入为激光雷达采集一次的360个距离信息,输入为每个动作对应的动作价值。
7.根据权利要求1所述的一种基于SVM与强化学习的室内场景识别方法,其特征在于,所述步骤(3)具体包括以下步骤:
(3-1)获取激光雷达数据Ht,输入到Ns中获得分类向量Tt
(3-2)Ht输入到决策网络NQ中并执行动作价值最大的动作a;
(3-3)获取激光雷达数据Ht+1,输入到Ns中获得分类向量Tt+1
(3-4)Ht+1输入到决策网络NQ中并执行动作价值最大的动作a;
(3-5)获取激光雷达数据Ht+2,输入到Ns中获得分类向量Tt+1
(3-6)Ht+2输入到决策网络NQ中并执行动作价值最大的动作a;
(3-7)对结果T(Tt,Tt+1,Tt+2)进行投票,三次预测中每次分类标签中数值最大的一类得1分,最终选择得分最高的一类作为最终结果;如果有三类均得1分则选择argmaxT(Tt,Tt+1,Tt+2)所在类别作为最终结果。
CN201810726023.9A 2018-07-04 2018-07-04 一种基于svm与强化学习的室内场景识别方法 Pending CN109063739A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810726023.9A CN109063739A (zh) 2018-07-04 2018-07-04 一种基于svm与强化学习的室内场景识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810726023.9A CN109063739A (zh) 2018-07-04 2018-07-04 一种基于svm与强化学习的室内场景识别方法

Publications (1)

Publication Number Publication Date
CN109063739A true CN109063739A (zh) 2018-12-21

Family

ID=64818702

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810726023.9A Pending CN109063739A (zh) 2018-07-04 2018-07-04 一种基于svm与强化学习的室内场景识别方法

Country Status (1)

Country Link
CN (1) CN109063739A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111289991A (zh) * 2020-03-10 2020-06-16 国网安徽省电力有限公司 一种基于多场景的激光测距方法及装置
CN113233270A (zh) * 2021-06-15 2021-08-10 上海有个机器人有限公司 基于机器人行驶安全的电梯内外判断方法及相关设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107688856A (zh) * 2017-07-24 2018-02-13 清华大学 基于深度强化学习的室内机器人场景主动识别方法
CN107860389A (zh) * 2017-11-07 2018-03-30 金陵科技学院 机器人室内行走强化学习路径导航算法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107688856A (zh) * 2017-07-24 2018-02-13 清华大学 基于深度强化学习的室内机器人场景主动识别方法
CN107860389A (zh) * 2017-11-07 2018-03-30 金陵科技学院 机器人室内行走强化学习路径导航算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
赵冬斌 等: "深度强化学习综述: 兼论计算机围棋的发展", 《控制理论与应用》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111289991A (zh) * 2020-03-10 2020-06-16 国网安徽省电力有限公司 一种基于多场景的激光测距方法及装置
CN111289991B (zh) * 2020-03-10 2023-09-12 国网安徽省电力有限公司 一种基于多场景的激光测距方法及装置
CN113233270A (zh) * 2021-06-15 2021-08-10 上海有个机器人有限公司 基于机器人行驶安全的电梯内外判断方法及相关设备

Similar Documents

Publication Publication Date Title
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN107480730A (zh) 电力设备识别模型构建方法和系统、电力设备的识别方法
CN110059741A (zh) 基于语义胶囊融合网络的图像识别方法
CN109176512A (zh) 一种体感控制机器人的方法、机器人及控制装置
CN110458095A (zh) 一种有效手势的识别方法、控制方法、装置和电子设备
CN104463191A (zh) 一种基于注意机制的机器人视觉处理方法
CN110084836A (zh) 基于深度卷积特征分层响应融合的目标跟踪方法
CN109325456A (zh) 目标识别方法、装置、目标识别设备及存储介质
CN107967487A (zh) 一种基于证据距离和不确定度的冲突数据融合方法
CN105847987A (zh) 通过电视和体感配件矫正人体动作及系统
CN101414411A (zh) 影像式的空位侦测系统与方法
CN108647571A (zh) 视频动作分类模型训练方法、装置及视频动作分类方法
CN102156992A (zh) 两站多目标无源定位与跟踪的智能仿生方法
CN110033012A (zh) 一种基于通道特征加权卷积神经网络的生成式目标跟踪方法
CN111881802A (zh) 基于双分支时空图卷积网络的交警手势识别方法
CN112380955B (zh) 动作的识别方法及装置
CN110781976A (zh) 训练图像的扩充方法、训练方法及相关装置
CN109063739A (zh) 一种基于svm与强化学习的室内场景识别方法
CN107274437A (zh) 一种基于卷积神经网络的视觉跟踪方法
CN114818788A (zh) 基于毫米波感知的追踪目标状态识别方法和装置
CN109712171A (zh) 一种基于相关滤波器的目标跟踪系统及目标跟踪方法
CN113158833A (zh) 一种基于人体姿态的无人车控制指挥方法
Li et al. Visual slam in dynamic scenes based on object tracking and static points detection
CN116258931B (zh) 基于ViT和滑窗注意力融合的视觉指代表达理解方法和系统
CN105046193B (zh) 一种基于融合稀疏表示矩阵的人体动作识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20181221

WD01 Invention patent application deemed withdrawn after publication