CN103544496B - 基于空间与时间信息融合的机器人场景识别方法 - Google Patents

基于空间与时间信息融合的机器人场景识别方法 Download PDF

Info

Publication number
CN103544496B
CN103544496B CN201210241977.3A CN201210241977A CN103544496B CN 103544496 B CN103544496 B CN 103544496B CN 201210241977 A CN201210241977 A CN 201210241977A CN 103544496 B CN103544496 B CN 103544496B
Authority
CN
China
Prior art keywords
scene
layer
model
scene image
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210241977.3A
Other languages
English (en)
Other versions
CN103544496A (zh
Inventor
陈启军
陈雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou tongqi Artificial Intelligence Technology Co.,Ltd.
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201210241977.3A priority Critical patent/CN103544496B/zh
Publication of CN103544496A publication Critical patent/CN103544496A/zh
Application granted granted Critical
Publication of CN103544496B publication Critical patent/CN103544496B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于空间与时间信息融合的机器人场景识别方法,包括以下步骤:1)初步描述场景图像的对象特征;2)根据场景图像的对象特征建立空间层次模型,该空间层次模型包括场景层、对象层、特征层,每个层之间通过条件概率关系进行关联,由特征层对对象层进行概率预测,由对象层对场景层进行概率预测,由场景层对场景图像进行概率预测;3)建立场景图像的时间序列模型;4)通过贝叶斯网络对场景图像的空间层次模型和时间序列模型进行结合,获得识别模型,由识别模型对下一时刻的场景图像进行概率预测,并根据预测的场景图像进行场景识别;5)对识别模型进行在线更新。与现有技术相比,本发明鲁棒性好,可以适应复杂环境。

Description

基于空间与时间信息融合的机器人场景识别方法
技术领域
本发明涉及一种场景识别方法,尤其是涉及一种基于空间与时间信息融合的机器人场景识别方法。
背景技术
移动机器人的自主作业将极大的依赖于其对环境的感知和理解,其中核心问题之一是对场景的识别。空间和时间是场景识别任务中两种重要信息来源。目前的一些研究已经为基于空间或者时间信息的场景识别方法提供了理论基础。不过这些工作大多数只是单独考虑一个方面的信息,目前还没有一个完整的用于移动机器人场景识别时间与空间信息融合的系统框架。另外,目前大多数场景识别方法都假设有限和静态的场景类型。这些方法被限制用于预定义的或者已知的环境,对于动态和未知的环境,需要场景识别模型能够在运行中根据环境更新系统参数,甚至是模型结构。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于空间与时间信息融合的机器人场景识别方法,该方法可以提高机器人的适应动态复杂环境的能力以及鲁棒性。
本发明的目的可以通过以下技术方案来实现:
一种基于空间与时间信息融合的机器人场景识别方法,包括以下步骤:
1)对场景图像的对象进行特征提取,初步描述场景图像的对象特征,对场景图像的对象进行初步描述的方式包括场景特征提取与描述、物体识别以及区域分割,场景图像的对象特征包括全局特征和局部特征,其中局部特征包括外观特征和轮廓特征,所述的全局特征、外观特征和轮廓特征采用相关向量机结合核函数组合的方式进行多种特征通道的融合;
2)根据场景图像的对象特征建立空间层次模型,该空间层次模型包括场景层、对象层、特征层,每个层之间通过条件概率关系进行关联,由特征层对对象层进行概率预测,由对象层对场景层进行概率预测,由场景层对场景图像进行概率预测;
3)建立场景图像的时间序列模型;
4)通过贝叶斯网络对场景图像的空间层次模型和时间序列模型进行结合,获得识别模型,由识别模型对下一时刻的场景图像进行概率预测,并根据预测的场景图像进行场景识别。
5)对识别模型进行在线更新。
步骤1)中对场景图像的对象进行初步描述的方式包括场景特征提取与描述、物体识别以及区域分割。
步骤1)中场景图像的对象特征包括全局特征和局部特征,其中局部特征包括外观特征和轮廓特征。
外观特征的描述采用SIFT算法,轮廓特征的描述采用Canny算法结合梯度方向统计算法。
步骤2)中场景的空间关系信息用层次化概率模型来描述。
步骤3)中时间序列模型通过隐马尔可夫模型来进行描述。
步骤4)通过概率方式实现空间层次模型和时间序列模型进行结合与场景识别。
步骤5)中以预测到的场景图像作为训练样本,对识别模型进行自适应学习,在线更新并优化识别模型,其更新策略受人工记忆系统控制。
与现有技术相比,本发明通过同时对空间和时间信息的融合,可以进一步提高识别模型的性能,更符合人类获取信息的特点,也将会更适应复杂环境下的场景识别任务,此外本发明可以对识别模型进行在线学习,更新并优化识别模型,使其可以处理更加复杂的动态场景以及未知场景。
附图说明
图1为本发明的整体流程图;
图2为本发明中空间层次模型的示意图;
图3为本发明中时间序列模型的示意图;
图4为识别模型的示意图;
图5为人工记忆管理系统的结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
如图1所示,一种基于空间与时间信息融合的机器人场景识别方法,包括以下步骤:
1)对场景图像的对象进行特征提取,初步描述场景图像的对象特征。
其中,对场景图像的对象进行初步描述的方式包括场景特征提取与描述、物体识别以及区域分割,场景图像的对象特征包括全局特征和局部特征,其中局部特征包括外观特征和轮廓特征,分别采用SIFT和Canny算法结合梯度方向统计算法进行特征提取。上述特征采用相关向量机结合核函数组合的方式进行多种特征通道的融合,该模型中特征核函数的权重将根据特征在对场景进行识别时具有的不同的重要程度自适应地学习得到,并且模型中与每一个训练样本相关联的核函数的组合方式都是灵活可变的。
具体为:由于每个场景图像为一个样本,而每一种特征描述构成了该样本的一个通道。令x为场景图像样本的多特征联接向量,其包含的三个特征通道分别为:全局特征xglobal、外观特征xapp和轮廓特征xshape
首先,本发明分别为这三个通道的特征向量选择一种核函数,用于衡量同类特征向量间的相似度。注意到,不同特征通道的核函数可以是高斯核、χ2核、线性核、或者其它。核函数可以相同,也可以不同,可视需要自由组合。下面为了表达的简洁,使用如下的等价表达:
Kglobal(x,y)=Kglobal(xglobal,yglobal)
Kapp(x,y)=Kapp(xapp,yapp)
Kshape(x,y)=Kshape(xshape,yshape)
对于具有N个样本的训练集,基本的相关向量机定义了如下的判别函数:
f ( x ) = f ( x ; w ) = Σ i = 1 N w i K ( x , x i ) + w 0 = w T φ ( x )
针对特征具有多个通道的特点,将该相关向量机判别函数进行了扩展。定义如下的多核相关向量机判别函数:
f ( x ) = Σ i = 1 N w g l o b a l , i K g l o b a l ( x , x i ) + Σ i = 1 N w a p p , i K a p p ( x , x i ) + Σ i = 1 N w s h a p e , i K s h a p e ( x , x i ) + w 0 = Σ i = 0 3 N w i · φ i ( x ) = w T φ ( x )
其中w即为该多核相关向量机的权值参数向量,其维度为3N+1维。而φ(x)为3N+1维的列向量,其形式为:
φ(x)=[1,Kglobal(x,x1),Kapp(x,x1),Kshape(x,x1),…,
Kglobal(x,xN),Kapp(x,xN),Kshape(x,xN)]T.
相关向量机学习模型具有从训练样本中挑选“相关(样本)向量”的能力。而对于上述判断函数定义的多核分类器,最终挑选出不再是“相关样本”,而是“相关通道特征向量”。并且由相关向量机的原理可知,在训练中对分类越是“相关”的通道特征向量,其学习得到的权值将越大。即特征核函数的组合权值是由该特征在分类时具有的不同的重要性自适应地学习得到的。对于每一个训练输入样本xi,都有一组独立的组合权值wglobal,i,wapp,i和wshape,i与之对应。因此,对于每个训练样本,其特征通道间核函数的组合方式都是不同的。因此,该模型可以实现比一般的组合核函数更灵活的特征融合。更重要的是,模型看似有很多的参数,不过通过相关向量机的稀疏学习,将使得大部分的参数为0,因此最终只会保留少量的模型参数,保证了模型的计算效率与泛化性能。
2)根据场景图像的对象特征建立如图2所示的空间层次模型,该空间层次模型包括场景层、对象层、特征层,每个层之间通过条件概率关系进行关联,由特征层对对象层进行概率预测,由对象层对场景层进行概率预测,由场景层对场景图像进行概率预测。
具体为:考虑场景在空间上的信息建模,本发明将空间信息分类为两个方面,一方面是在图像空间内的位置关系,例如物体与物体之间、区域与区域之间的位置关系;另一方面是在抽象层次上的关系,如场景与物体之间,物体与图像特征之间的关系。本发明通过图模型(Graphical Model)来对空间信息进行结构化的概率建模,因为它提供了对视觉关系(图论)以及不确定度(概率论)的强大支持。本发明采用条件随机场(Conditional Random Field)来对场景及其部件的空间信息进行建模、学习以及推理,条件随机场提供了一种具有局部关系约束的全局概率分布描述方法。
通过与物体识别算法(Deformable Part Model)以及图像分割算法(MarkovRandom Field)相结合,场景部件(物体或者兴趣点或者一致的场景区块)首先被提取出来,并作为条件随机场中的结点,同时结点的特征描述、在图像中的空间位置以及之间的共生关系都将在该模型得以描述中。在本发明的三层模型中,特征层描述了抽取的局部特征间的关系,对象层包含了特征识别与区域分割的结果,场景层则为对整幅图像所对应场景的概率预测。层次平面内使用条件随机场建模,每个层次之间通过条件概率关系相连,这样就形成了一个多层模型。通过贝叶斯学习与推理,可将整个场景图像中各层次的空间信息用于高层场景的概率预测。
3)在场景时间信息方面,通过隐马尔可夫模型(Hidden Markov Model,HMM)建立场景图像的时间序列模型,机器人在工作坏境中运动时,获取的图像信息在时间序列上存在很大的相关性。机器人从一个场景进入另一个场景,可以看作是隐马尔可夫模型中一个状态至另一个状态的切换。因此可将当前所属的场景类别作为HMM的隐藏状态变量,而采集的图像特征向量自然就成为了观测变量,机器人在环境中进行场景识别的过程就可以描述成如图3的时间序列模型。
设初始时刻为t=0,t时刻所处场景的类别则为qt。每获取新的一帧图像,时刻t加1。这时采集的图像通过特征提取和图像描述等过程抽象为一个特征向量,也就是图中的观测值xt。可以看出xt只与当时的状态qt有关。后一时刻的场景出现的概率只与前一时刻的场景有关,即具有一阶马尔可夫性:
P(qt|q1,…,qt-1)=P(qt|qt-1)
对于一般的场景识别系统而言,识别的目标通常是由当前图像判断场景类别,即P(qt|xt)。而在使用了HMM建模后,系统的预测目标可以重新定义为求解P(qt|x1,…,xt)。显然,在这样的一个目标函数下,场景不再只与当前观测有关,还与之前的所有观测值有关。
因此通过迭代的概率传播算法实现快速计算,具体过程如下:
首先定义如下的变量:αt(i)≡p(x1,…,xt,qt=i)
它代表了观测到{x1,…,xt}序列,同时系统状态终止于i的概率。若将状态转移概率表示为A(i,j)=P(qt+1=j|qt=i),放出概率表示为bi(x)=P(x|q=i)。
利用条件独立特性以及求和原理,进一步可得如下的推导式:
α t ( j ) = P ( x 1 , ... , x t , q t = j ) = P ( x 1 , ... , x t , q t = j ) P ( q t = j ) = P ( x 1 , ... , x t - 1 , q t = j ) P ( x t | q t = j ) P ( q t = j ) = P ( x 1 , ... , x t - 1 , q t = j ) P ( x t | q t = j ) = P ( x t | q t = j ) Σ i P ( x 1 , ... , x t - 1 , q t - 1 = i , q t = j ) = P ( x t | q t = j ) Σ i P ( x 1 , ... , x t - 1 , q t = j | q t - 1 = i ) P ( q t - 1 = i ) = P ( x t | q t = j ) Σ i P ( x 1 , ... , x t - 1 , q t - 1 = i ) P ( q t = j | q t - 1 = i ) P ( q t - 1 = i ) = P ( x t | q t = j ) Σ i P ( x 1 , ... , x t - 1 , q t - 1 = i ) P ( q t = j | q t - 1 = i )
化简可得:
α t ( j ) = P ( x t | q t = j ) Σ i A ( i , j ) α t - 1 ( i ) = b j ( x t ) Σ i A ( i , j ) α t - 1 ( i ) - - - ( 1 )
每进入新的时刻t+1,只需要取上一时刻记录下的αt值,就能快速计算得到当前的αt+1
假设观测序列的终点时刻为T,则可通过下式获得该观测序列产生的概率:
P ( X ) = P ( x 1 , ... , x T ) = Σ j α T ( j )
结合上式,于是上下文关系模型的目标函数可以由下式求得:
P ( q t = i | x 1 : t ) ≡ P ( q t = i | x 1 , ... , x t ) = P ( x 1 , ... , x t , q t = i ) P ( x 1 , ... , x t ) = α t ( i ) Σ j α t ( j ) - - - ( 2 )
式(2)对αt作了归一化处理,式(1)和式(2)一起构成了时间序列模型的预测更新算法,其中式(2)是预测概率,式(1)是更新方程。利用上述方法后,当前的场景识别不再只依赖当前的图像,而是使得过去时刻的图像及其预测信息(1到t时刻)能够为当前时刻(t时刻)的场景预测提供依据,时间上间隔越近的信息能够获得更高的影响权值。
4)通过贝叶斯网络对场景图像的空间层次模型和时间序列模型进行结合,获得如图4所示的识别模型,其中qt代表当前的场景,qt-1代表上一帧的场景,xt代表当前观测,代表空间层次模型。通过时间信息MT,空间信息MS,同时结合当前观测到的信息MO,经由贝叶斯推理,可以获得下一时刻场景的预测值,然后根据预测的场景图像进行场景识别。
5)在获得了新的场景预测后,还可以使用识别与预测中置信度较高的一些结果作为新的训练样本,对识别模型的结构以及参数进行自适应学习,可以适应环境中新的变化。并且利用增量学习技术,可以使得模型快速基于新获取的数据进行更新,而不需要重新对大量的样本进行自适应学习,可以大大提高模型更新的速度。
本实施例中采用“人工记忆管理系统”(AMMS)来进行知识管理,即使用“工作记忆”(Working memory)与“长期记忆”(Long-term memory)对场景识别模型(即知识)进行管理。考虑到环境中大量的动态结构,哪些部分需要经常更新,哪些部分可以作为真值作用于下一步更新。这些问题可通过AMMS来解决,它包含长期记忆和短期记忆管理两个核心部分,可用于有效地控制知识的遗忘曲线,达到快速搜索与节省空间的目的。该人工记忆管理系统的结构如图5所示,所有左侧的短期记忆都是时间帧触发的,它们代表了系统的感知结果。短期记忆都可以注册到“工作记忆”(WMt)中去,不过只有最新的短期记忆能够用于更新已知的知识。另外,系统中有两个循环可用于调节系统的性能,分别是Ts和Tl。Ts是更新工作记忆的周期,它需要足够快,以支持最新获取数据的融合。而Tl是将重要的信息保存到“长期记忆”(LMt)中的周期,同时还包含解释数据(即推理)和预测未知数据的时间。T1的时间相对较长。这样的过程相当于实现了一种记忆效应,通过信息融合和记忆管理,将使得场景识别方法的鲁棒性大大提高。

Claims (6)

1.一种基于空间与时间信息融合的机器人场景识别方法,其特征在于,包括以下步骤:
1)对场景图像的对象进行特征提取,初步描述场景图像的对象特征,对场景图像的对象进行初步描述的方式包括场景特征提取与描述、物体识别以及区域分割,场景图像的对象特征包括全局特征和局部特征,其中局部特征包括外观特征和轮廓特征,所述的全局特征、外观特征和轮廓特征采用相关向量机结合核函数组合的方式进行多种特征通道的融合;
2)根据场景图像的对象特征建立空间层次模型,该空间层次模型包括场景层、对象层、特征层,每个层之间通过条件概率关系进行关联,由特征层对对象层进行概率预测,由对象层对场景层进行概率预测,由场景层对场景图像进行概率预测;
3)建立场景图像的时间序列模型;
4)通过贝叶斯网络对场景图像的空间层次模型和时间序列模型进行结合,获得识别模型,由识别模型对下一时刻的场景图像进行概率预测,并根据预测的场景图像进行场景识别;
5)对识别模型进行在线更新。
2.根据权利要求1所述的一种基于空间与时间信息融合的机器人场景识别方法,其特征在于,外观特征的描述采用SIFT算法,轮廓特征的描述采用Canny算法结合梯度方向统计算法。
3.根据权利要求1所述的一种基于空间与时间信息融合的机器人场景识别方法,其特征在于,步骤2)中场景的空间关系信息用层次化概率模型来描述。
4.根据权利要求1所述的一种基于空间与时间信息融合的机器人场景识别方法,其特征在于,步骤3)中时间序列模型通过隐马尔可夫模型来进行描述。
5.根据权利要求1所述的一种基于空间与时间信息融合的机器人场景识别方法,其特征在于,步骤4)通过概率方式实现空间层次模型和时间序列模型进行结合与场景识别。
6.根据权利要求1所述的一种基于空间与时间信息融合的机器人场景识别方法,其特征在于,步骤5)中以预测到的场景图像作为训练样本,对识别模型进行 自适应学习,在线更新并优化识别模型,其更新策略受人工记忆系统控制。
CN201210241977.3A 2012-07-12 2012-07-12 基于空间与时间信息融合的机器人场景识别方法 Active CN103544496B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210241977.3A CN103544496B (zh) 2012-07-12 2012-07-12 基于空间与时间信息融合的机器人场景识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210241977.3A CN103544496B (zh) 2012-07-12 2012-07-12 基于空间与时间信息融合的机器人场景识别方法

Publications (2)

Publication Number Publication Date
CN103544496A CN103544496A (zh) 2014-01-29
CN103544496B true CN103544496B (zh) 2016-12-21

Family

ID=49967931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210241977.3A Active CN103544496B (zh) 2012-07-12 2012-07-12 基于空间与时间信息融合的机器人场景识别方法

Country Status (1)

Country Link
CN (1) CN103544496B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217216B (zh) * 2014-09-01 2017-10-17 华为技术有限公司 生成检测模型的方法和设备、用于检测目标的方法和设备
CN105303949B (zh) * 2015-11-30 2018-01-19 中国矿业大学 一种基于煤矿巷道的机器人视觉实验环境系统
CN105550667B (zh) * 2016-01-25 2019-01-25 同济大学 一种基于立体相机的骨架信息动作特征提取方法
CN105893956B (zh) * 2016-03-30 2019-05-17 南京邮电大学 一种基于多特征自适应测度学习的在线目标匹配方法
CN106446930B (zh) * 2016-06-28 2019-11-22 沈阳工业大学 基于深层卷积神经网络的机器人工作场景识别方法
CN106773820B (zh) * 2016-12-02 2019-07-19 北京奇虎科技有限公司 机器人互动方法、装置及机器人
CN108241631B (zh) * 2016-12-23 2022-09-30 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
IT201800006156A1 (it) * 2018-06-08 2019-12-08 Metodo di controllo predittivo di un robot e relativo sistema di controllo
CN110968083B (zh) * 2018-09-30 2023-02-10 科沃斯机器人股份有限公司 栅格地图的构建方法、避障的方法、设备及介质
CN110163238B (zh) * 2018-12-13 2023-04-07 腾讯科技(深圳)有限公司 一种信息预测的方法、模型训练的方法以及服务器
CN109635098B (zh) * 2018-12-20 2020-08-21 东软集团股份有限公司 一种智能问答方法、装置、设备及介质
CN111797867A (zh) * 2019-04-09 2020-10-20 Oppo广东移动通信有限公司 系统资源优化方法、装置、存储介质及电子设备
CN112287964A (zh) * 2020-09-14 2021-01-29 南京凌华微电子科技有限公司 一种ai陪护机器人房间场景识别方法
CN114227688B (zh) * 2021-12-29 2023-08-04 同济大学 一种基于曲线配准的示教轨迹学习方法
CN114618142A (zh) * 2022-04-22 2022-06-14 吉林体育学院 一种用于兵乓球运动的辅助训练系统及方法
CN114782797B (zh) * 2022-06-21 2022-09-20 深圳市万物云科技有限公司 房屋场景分类方法、装置、设备及可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7239719B2 (en) * 2003-08-22 2007-07-03 Bbn Technologies Corp. Automatic target detection and motion analysis from image data
CN102663445A (zh) * 2012-03-29 2012-09-12 中国科学院上海光学精密机械研究所 基于层次时间记忆算法的图像理解系统及其图像理解方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7239719B2 (en) * 2003-08-22 2007-07-03 Bbn Technologies Corp. Automatic target detection and motion analysis from image data
CN102663445A (zh) * 2012-03-29 2012-09-12 中国科学院上海光学精密机械研究所 基于层次时间记忆算法的图像理解系统及其图像理解方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Context-based vision system for place and object recognition;Torralba A etc;《ICCV 2003 proceedings of the ninth IEEE international conference on computer vision》;IEEE Computer Society;20031016;第2卷;第273-280页 *
Using the Forest to See the Trees: A Graphical;Kevin Murphy etc;《IEEE/ASME International Conference on Advanced Intelligent Mechatronic(AIM)2003》;20030724;全文 *
移动机器人基于视觉室外自然场景理解的研究与进展;庄严等;《自动化学报》;20100131;第36卷(第1期);第1-11页 *
面向自然场景分类的贝叶斯网络局部语义建模方法;程环环等;《信号处理》;20100228;第26卷(第2期);第234-240页 *

Also Published As

Publication number Publication date
CN103544496A (zh) 2014-01-29

Similar Documents

Publication Publication Date Title
CN103544496B (zh) 基于空间与时间信息融合的机器人场景识别方法
US10019629B2 (en) Skeleton-based action detection using recurrent neural network
Wang et al. A hybrid wind speed forecasting model based on phase space reconstruction theory and Markov model: A case study of wind farms in northwest China
CN111766782B (zh) 基于深度强化学习中Actor-Critic框架的策略选择方法
Song et al. New chaotic PSO-based neural network predictive control for nonlinear process
Theocharous et al. Representing hierarchical POMDPs as DBNs for multi-scale robot localization
CN108182260B (zh) 一种基于语义选择的多变量时间序列分类方法
CN109858390A (zh) 基于端到端时空图学习神经网络的人体骨架的行为识别方法
CN108364016A (zh) 基于多分类器的渐进式半监督分类方法
CN110728698A (zh) 一种基于复合循环神经网络系统的多目标跟踪模型
CN107146237A (zh) 一种基于在线状态学习与估计的目标跟踪方法
Balhara et al. A survey on deep reinforcement learning architectures, applications and emerging trends
CN110147833A (zh) 人像处理方法、装置、系统和可读存储介质
CN113298186A (zh) 融合流模型对抗生成网络和聚类算法的网络异常流量检测方法
CN107341471B (zh) 一种基于双层条件随机场的人体行为识别方法
Nguyen et al. Reinforcement learning based navigation with semantic knowledge of indoor environments
Stankovic et al. Forecasting ethereum price by tuned long short-term memory model
CN113537623A (zh) 基于注意力机制及多模态的服务需求动态预测方法及系统
Nayak et al. An artificial neural network model for weather forecasting in Bhopal
Dan et al. Application of machine learning in forecasting energy usage of building design
CN106952287A (zh) 一种基于低秩稀疏表达的视频多目标分割方法
CN108573275B (zh) 一种在线分类微服务的构建方法
Kajornrit et al. An integrated intelligent technique for monthly rainfall time series prediction
Praveena et al. Wind power forecasting in short-term using Fuzzy K-means clustering and neural network
CN113822172A (zh) 一种视频时空行为检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210219

Address after: Room 306, 30 / F, Tiancheng Times Business Plaza, 58 qinglonggang Road, high speed rail new town, Xiangcheng District, Suzhou City, Jiangsu Province, 215000

Patentee after: Suzhou tongqi Artificial Intelligence Technology Co.,Ltd.

Address before: 200092 Siping Road 1239, Shanghai, Yangpu District

Patentee before: TONGJI University

PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Robot scene recognition method based on spatial and temporal information fusion

Effective date of registration: 20230803

Granted publication date: 20161221

Pledgee: Bank of Jiangsu Co.,Ltd. Suzhou Branch

Pledgor: Suzhou tongqi Artificial Intelligence Technology Co.,Ltd.

Registration number: Y2023980050774