CN106447071A - 一种应用于视频监控场景的路径预测方法 - Google Patents
一种应用于视频监控场景的路径预测方法 Download PDFInfo
- Publication number
- CN106447071A CN106447071A CN201610590481.5A CN201610590481A CN106447071A CN 106447071 A CN106447071 A CN 106447071A CN 201610590481 A CN201610590481 A CN 201610590481A CN 106447071 A CN106447071 A CN 106447071A
- Authority
- CN
- China
- Prior art keywords
- scene
- target
- path
- image block
- train
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
- G06Q10/047—Optimisation of routes or paths, e.g. travelling salesman problem
Landscapes
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Development Economics (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种应用于视频监控场景的路径预测方法,用于在给定场景图像和需预测的目标物体后,预测目标在将来一段时间内可能行进的路径。具体包括如下步骤:获取用于训练路径预测模型的监控视频数据集,并定义算法目标;对目标与场景之间的结构关系和目标本身的朝向进行建模;分析目标与场景之间的关系,预测目标本身的朝向;建立路径预测模型,规划最优路径。本发明适用于真实视频监控场景中的路径预测,面对各类复杂情况具有较佳的效果和鲁棒性。
Description
技术领域
本发明属于计算机视觉领域,特别地涉及一种应用于视频监控场景的路径预测方法。
背景技术
推理和预测是智能视觉系统的主要能力之一,是近年来计算机视觉领域的研究者重点关注的课题。视觉路径预测是其中的一个子任务,其目标是预测一幅场景图片中某个给定目标在未来可能行进的路径。该问题在视频监控和智能机器人等领域具有很高的应用价值,直接影响到机器人导航等应用的性能。但同样,该问题具有较大的挑战性,一是它需要对场景图片和目标运动模式进行高层语义理解和表达。二是它经常面临复杂的情况,对相应算法的性能和鲁棒性提出了较高的要求。
目前的视觉路径预测方法直接在已有的数据库里搜索与目标场景相似的数据,再把已标注的轨迹用GIST或SIFT等方法映射到目标场景上。该种方法主要存在以下几个问题:1)它基于传统的视觉特征,这些视觉特征只能表达较低层的视觉信息,但视觉路径预测任务需要模型具备高层的语义理解能力;2)严重依赖于已有的数据库,如果数据库里没有相似的场景,那么方法很难给出准确的预测结果;3)在方法的测试阶段需要匹配全部数据库,导致较高的计算代价和时间复杂度。
发明内容
为解决上述问题,本发明的目的在于提供一种应用于视频监控场景的路径预测方法。该方法基于深度神经网络,利用深度视觉特征建模两种影响目标路径选择的关键因素,采用联合路径规划预测合理的未来路径,能够更好地适应真实视频监控场景中的复杂情况。
为实现上述目的,本发明的技术方案为:
一种应用于视频监控场景的路径预测方法,包括以下步骤:
S1、获取用于训练路径预测模型的监控视频数据集,并定义算法目标;
S2、对目标与场景之间的结构关系和目标本身的朝向进行建模;
S3、分析目标与场景之间的关系,预测目标本身的朝向;
S4、建立路径预测模型,规划最优路径。
进一步的,步骤S1中,所述的用于训练路径预测模型的监控视频数据集为含有场景序列图像Itrain,人工标注的目标边界框Btrain和身份IDtrain的监控视频数据集;
定义算法目标为:预测目标物体在未来一段时间内最有可能行进的路径P=(s1,s2,s3,...,sn),其中si=(xi,yi)代表场景位置的坐标,P由一系列连续的位置组成。
进一步的,步骤S2中,对目标物体与场景之间的结构关系进行建模具体包括:
S21、根据所述目标边界框Btrain和身份IDtrain,从场景序列图像Itrain中获取所有目标图像块q=(q1,q2,...,qn),以及每个目标图像块qi各自分别出现过的场景区域和未出现过的场景区域其中,目标图像块qi由相应的目标边界框Btrain在场景图像Itrain里截取得到,场景图像块pi在和中随机截取,i=1,2,...,n;
S22、建立深度卷积神经网络的输入为目标图像块qi和场景图像块pi,输出为标签0或1,即
其中,ψS为神经网络的参数,用于预测目标是否能到达给定的场景区域;
S23、将(q,Hpos)和(q,Hneg)分别作为正样本对和负样本对,使用反向传播算法训练神经网络
进一步的,步骤S2中,对目标本身的朝向进行建模具体包括:
S24、根据所述目标边界框Btrain和身份IDtrain,在场景序列图像Itrain中获取所有目标图像q=(q1,q2,...,qn)及同一目标图像块qi在相邻帧间的相对位置θ=(θ1,θ2,...,θn),其中,θi被近似为目标图像块qi的当前朝向,i=1,2,...,n;
S25、建立深度卷积神经网络的输入为一幅目标图像块qi,输出为目标图像块qi的当前朝向θi,即
其中,ψO为神经网络的参数,用于输出目标图像块qi的当前朝向θi;
S26、使用反向传播算法对所有q和θ训练神经网络
进一步的,步骤S3中,分析目标与场景之间的关系具体包括:
S31、获取用于测试的静态场景图片I,以及该图片上需预测的目标物体的边界框B=(b1,b2,ω,h);
S32、使用滑动窗在所述静态场景图片I上分块截取所有场景图像块p=(pi,p2,...,pn),同时根据目标物体的边界框B=(b1,b2,ω,h)在静态场景图片I上截取目标图像块q;
S32、依照公式(1),将目标图像块q和所有场景图像块p依次输入深度卷积神经网络
S33、把输出的所有结果按场景图像块p的原位置依次组成整个场景I的热图R,R即是对目标图像块qi来说是障碍物的区域。
进一步的,步骤S3中,预测目标本身的朝向具体包括:
S34、依照公式(2),将目标图像块q输入深度卷积神经网络输出的结果即为目标图像q的当前朝向θ。
进一步的,步骤S4中,建立路径预测模型具体包括:
S41、建立优化问题:
其中,是两个角度的差,θP是路径P的初始方向,ε是加权系数,~表示空间位置相邻,sini和sedge分别是目标物体的位置坐标和场景I的所有边缘位置。
进一步的,步骤S4中,规划最优路径具体包括:
S42、建立有向图G,G的结点vi依次对应于场景位置的坐标si,G的边的权重为
其中
(I):||sj-sini||1=d or d+1,si~sj,
(II):||sj-sini||1≠d and d+1,si~sj,
d取目标边界框Btrain的对角线的长度。
S43、使用图的最短路径迪杰斯特拉(Dijkstra)算法在图G的结点vini和所有vedge间搜索最短路径P,其中,vini和vedge分别对应于公式(3)中的目标物体的位置坐标sini和边缘位置sedge;P即是规划的最优路径。
本发明的应用于视频监控场景的路径预测方法,相比于现有的视觉路径预测方法,具有以下有益效果:
首先,本发明的路径预测方法定义了两种影响目标路径选择的关键因素,即“目标与场景之间的结构关系”和“目标本身的朝向”,该种假设更加符合真实情况下的目标路径规划问题。
其次,本发明的路径预测方法基于深度卷积神经网络建立上下文模型以建模上述两种关键因素。深度卷积神经网络能够更好地表达视觉特征,另外,视觉特征的提取和上下文模型的学习被统一在同一个框架里,提高了方法的最终效果。
最后,本发明的路径预测方法中提出的联合路径规划方法利用上下文模型返回的分析结果推理合理的路径。在该路径规划方法中,原始的路径预测问题被等价转化为一个可以被高效解决的优化问题,保证了整个方法的效率。
本发明的应用于视频监控场景的路径预测方法,在视频监控分析和智能机器人导航中,能够有效提高路径预测效率和准确度,具有良好的应用价值。例如,在机器人导航中,本发明的路径预测方法可使机器人利用摄像头等视觉捕捉设备返回的信息,快速和准确地规划出从当前位置到达特定目的地的可行路径,提高机器人的智能化程度。
附图说明
图1为本发明的应用于视频监控场景的路径预测方法实施例的流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
参考图1,在本发明的较佳实施例中,一种应用于视频监控场景的路径预测方法,包括以下步骤:
首先,获取用于训练路径预测模型的监控视频数据集,并定义算法目标。
其中,用于训练路径预测模型的监控视频数据集为含有场景序列图像Itrain,人工标注的目标边界框Btrain和身份IDtrain的监控视频数据集。
定义算法目标为:预测目标物体在未来一段时间内最有可能行进的路径P=(s1,s2,s3,...,sn),其中si=(xi,yi)代表场景位置的坐标,P由一系列连续的位置组成。
其次,对目标与场景之间的结构关系和目标本身的朝向进行建模。具体的,其包括如下步骤:
第一步,根据所述目标边界框Btrain和身份IDtrain,从场景序列图像Itrain中获取所有目标图像块q=(q1,q2,...,qn),以及每个目标图像块qi各自分别出现过的场景区域和未出现过的场景区域其中,目标图像块qi由相应的目标边界框Btrain在场景图像Itrain里截取得到,场景图像块pi在和中随机截取,i=1,2,...,n;
第二步,建立深度卷积神经网络的输入为目标图像块qi和场景图像块pi,输出为标签0或1,即
其中,ψS为神经网络的参数,用于预测目标是否能到达给定的场景区域;
第三步,将(q,Hpos)和(q,Hneg)分别作为正样本对和负样本对,使用反向传播算法训练神经网络
第四步,根据所述目标边界框Btrain和身份IDtrain,在场景序列图像Itrain中获取所有目标图像q=(q1,q2,...,qn)及同一目标图像块qi在相邻帧间的相对位置θ=(θ1,θ2,...,θn),其中,θi被近似为目标图像块qi的当前朝向,i=1,2,...,n。
第五步,建立深度卷积神经网络的输入为一幅目标图像块qi,输出为目标图像块qi的当前朝向θi,即
其中,ψO为神经网络的参数,用于输出目标图像块qi的当前朝向θi。
第六步,使用反向传播算法对所有q和θ训练神经网络
接下来,分析目标与场景之间的关系,预测目标本身的朝向。具体的,其包括如下步骤:
第一步,获取用于测试的静态场景图片I,以及该图片上需预测的目标物体的边界框B=(b1,b2,ω,h);
第二步,使用滑动窗在所述静态场景图片I上分块截取所有场景图像块p=(pi,p2,...,pn),同时根据目标物体的边界框B=(b1,b2,ω,h)在静态场景图片I上截取目标图像块q;
第三步,依照公式(1),将目标图像块q和所有场景图像块p依次输入深度卷积神经网络
第四步,把输出的所有结果按场景图像块p的原位置依次组成整个场景I的热图R,R即是对目标图像块qi来说是障碍物的区域。
进一步的,步骤S3中,预测目标本身的朝向具体包括:
第五步,依照公式(2),将目标图像块q输入深度卷积神经网络输出的结果即为目标图像q的当前朝向θ。
最后,建立路径预测模型,规划最优路径。具体包括:
第一步,建立优化问题:
其中,是两个角度的差,θP是路径P的初始方向,ε是加权系数,~表示空间位置相邻,sini和sedge分别是目标物体的位置坐标和场景I的所有边缘位置。
进一步的,步骤S4中,规划最优路径具体包括:
第二步,建立有向图G,G的结点υvi依次对应于场景位置的坐标si,G的边的权重为
其中
(I):||sj-sini||1=d or d +1、si~sj,
(II):||sj-sini||1≠d and d+1,si~sj,
d取目标边界框Btrain的对角线的长度。
第三步,使用图的最短路径迪杰斯特拉(Dijkstra)算法在图G的结点vini和所有vedge间搜索最短路径P,其中,vini和vedge分别对应于公式(3)中的目标物体的位置坐标sini和边缘位置sedge;迪杰斯特拉(Dijkstra)算法是1959年提出的单源最短路径算法。它以起始点为中心向外层层扩展,直到扩展到终点为止,计算有向图中从一个顶点到其余各顶点的最短路径。P即是规划的最优路径。
上述实施例中,本发明的路径预测方法首先分别对两种影响路径选择的关键因素进行建模,即“目标本身的朝向”和“目标与场景之间的结构关系”。在此基础上,结合上述两种模型返回的结果得到所有潜在路径的代价函数,将原问题转化为求解具有最小代价的路径的优化问题。最后,采用计算简便的最短路径方法解得最可能的数条目标未来路径。
本发明的路径预测方法,基于深度学习技术,可以同时有效利用两种影响路径选择的关键因素,去完成路径的合理预测,从而得到规划的最优路径。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种应用于视频监控场景的路径预测方法,其特征在于,包括以下步骤:
S1、获取用于训练路径预测模型的监控视频数据集,并定义算法目标;
S2、对目标与场景之间的结构关系和目标本身的朝向进行建模;
S3、分析目标与场景之间的关系,预测目标本身的朝向;
S4、建立路径预测模型,规划最优路径。
2.如权利要求1所述的应用于视频监控场景的路径预测方法,其特征在于,步骤S1中,所述的用于训练路径预测模型的监控视频数据集为含有场景序列图像Itrain,人工标注的目标边界框Btrain和身份IDtrain的监控视频数据集;
定义算法目标为:预测目标物体在未来一段时间内最有可能行进的路径P=(s1,s2,s3,...,sn),其中si=(xi,yi)代表场景位置的坐标,P由一系列连续的位置组成。
3.如权利要求2所述的应用于视频监控场景的路径预测方法,其特征在于,步骤S2中,对目标物体与场景之间的结构关系进行建模具体包括:
S21、根据所述目标边界框Btrain和身份IDtrain,从场景序列图像Itrain中获取所有目标图像块q=(q1,q2,...,qn),以及每个目标图像块qi各自分别出现过的场景区域和未出现过的场景区域其中,目标图像块qi由相应的目标边界框Btrain在场景图像Itrain里截取得到,场景图像块pi在和中随机截取,i=1,2,...,n;
S22、建立深度卷积神经网络的输入为目标图像块qi和场景图像块pi,输出为标签0或1,即
其中,ψS为神经网络的参数,用于预测目标是否能到达给定的场景区域;
S23、将(q,Hpos)和(q,Hneg)分别作为正样本对和负样本对,使用反向传播算法训练神经网络
4.如权利要求3所述的应用于视频监控场景的路径预测方法,其特征在于,步骤S2中,对目标本身的朝向进行建模具体包括:
S24、根据所述目标边界框Btrain和身份IDtrain,在场景序列图像Itrain中获取所有目标图像q=(q1,q2,...,qn)及同一目标图像块qi在相邻帧间的相对位置θ=(θ1,θ2,...,θn),其中,θi被近似为目标图像块qi的当前朝向,i=1,2,...,n;
S25、建立深度卷积神经网络的输入为一幅目标图像块qi,输出为目标图像块qi的当前朝向θi,即
其中,ψO为神经网络的参数,用于输出目标图像块qi的当前朝向θi;
S26、使用反向传播算法对所有q和θ训练神经网络
5.如权利要求4所述的应用于视频监控场景的路径预测方法,其特征在于,步骤S3中,分析目标与场景之间的关系具体包括:
S31、获取用于测试的静态场景图片I,以及该图片上需预测的目标物体的边界框B=(b1,b2,w,h);
S32、使用滑动窗在所述静态场景图片I上分块截取所有场景图像块p=(p1,p2,...,pn),同时根据目标物体的边界框B=(b1,b2,w,h)在静态场景图片I上截取目标图像块q;
S32、依照公式(1),将目标图像块q和所有场景图像块p依次输入深度卷积神经网络
S33、把输出的所有结果按场景图像块p的原位置依次组成整个场景I的热图R,R即是对目标图像块qi来说是障碍物的区域。
6.如权利要求5所述的应用于视频监控场景的路径预测方法,其特征在于,步骤S3中,预测目标本身的朝向具体包括:
S34、依照公式(2),将目标图像块q输入深度卷积神经网络输出的结果即为目标图像q的当前朝向θ。
7.如权利要求6所述的应用于视频监控场景的路径预测方法,其特征在于,步骤S4中,建立路径预测模型具体包括:
S41、建立优化问题:
其中,是两个角度的差,θP是路径P的初始方向,ε是加权系数,~表示空间位置相邻,sini和sedge分别是目标物体的位置坐标和场景I的所有边缘位置。
8.如权利要求7所述的应用于视频监控场景的路径预测方法,其特征在于,步骤S4中,规划最优路径具体包括:
S42、建立有向图G,G的结点vi依次对应于场景位置的坐标si,G的边的权重为
其中
(I):||sj-sini||1=d or d+1,si~sj,
(II):||sj-sini||1≠d and d +1,si~sj,
d取目标边界框Btrain的对角线的长度;
S43、使用图的最短路径迪杰斯特拉算法在图G的结点vini和所有vedge间搜索最短路径P,其中,vini和vedge分别对应于公式(3)中的目标物体的位置坐标sini和边缘位置sedge;P即是规划的最优路径。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610590481.5A CN106447071A (zh) | 2016-07-25 | 2016-07-25 | 一种应用于视频监控场景的路径预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610590481.5A CN106447071A (zh) | 2016-07-25 | 2016-07-25 | 一种应用于视频监控场景的路径预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106447071A true CN106447071A (zh) | 2017-02-22 |
Family
ID=58184203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610590481.5A Withdrawn CN106447071A (zh) | 2016-07-25 | 2016-07-25 | 一种应用于视频监控场景的路径预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106447071A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106953802A (zh) * | 2017-03-01 | 2017-07-14 | 浙江工商大学 | 一种基于深度学习的网络最优路径选择方法 |
CN107131883A (zh) * | 2017-04-26 | 2017-09-05 | 中山大学 | 基于视觉的全自动移动终端室内定位系统 |
CN107424426A (zh) * | 2017-07-10 | 2017-12-01 | 南京邮电大学 | 一种基于深度学习的物流路径规划方法 |
CN108198280A (zh) * | 2017-12-11 | 2018-06-22 | 浙江捷尚人工智能研究发展有限公司 | 基于摄像头的门控制方法、装置及系统 |
CN109299703A (zh) * | 2018-10-17 | 2019-02-01 | 思百达物联网科技(北京)有限公司 | 对鼠情进行统计的方法、装置以及图像采集设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101587592A (zh) * | 2008-05-21 | 2009-11-25 | 上海新联纬讯科技发展有限公司 | 目标运动识别系统 |
CN101699862A (zh) * | 2009-11-16 | 2010-04-28 | 上海交通大学 | Ptz摄像机获取感兴趣区域高分辨率图像的方法 |
CN105469423A (zh) * | 2015-11-16 | 2016-04-06 | 北京师范大学 | 一种基于连续吸引子神经网络的在线目标跟踪方法 |
-
2016
- 2016-07-25 CN CN201610590481.5A patent/CN106447071A/zh not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101587592A (zh) * | 2008-05-21 | 2009-11-25 | 上海新联纬讯科技发展有限公司 | 目标运动识别系统 |
CN101699862A (zh) * | 2009-11-16 | 2010-04-28 | 上海交通大学 | Ptz摄像机获取感兴趣区域高分辨率图像的方法 |
CN105469423A (zh) * | 2015-11-16 | 2016-04-06 | 北京师范大学 | 一种基于连续吸引子神经网络的在线目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
SIYI HUANG: "Deep Learning Driven Visual Path Prediction from a Single Image", 《ARXIV》 * |
刘会江: "动态目标检测视频监控系统的设计与实现", 《中国优秀硕士学位论文全文数据库》 * |
卢燕斌: "监控视频中运动目标检测和追踪的研究及应用", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106953802A (zh) * | 2017-03-01 | 2017-07-14 | 浙江工商大学 | 一种基于深度学习的网络最优路径选择方法 |
CN106953802B (zh) * | 2017-03-01 | 2020-03-03 | 浙江工商大学 | 一种基于深度学习的网络最优路径选择方法 |
CN107131883A (zh) * | 2017-04-26 | 2017-09-05 | 中山大学 | 基于视觉的全自动移动终端室内定位系统 |
CN107424426A (zh) * | 2017-07-10 | 2017-12-01 | 南京邮电大学 | 一种基于深度学习的物流路径规划方法 |
CN107424426B (zh) * | 2017-07-10 | 2020-07-07 | 南京邮电大学 | 一种基于深度学习的物流路径规划方法 |
CN108198280A (zh) * | 2017-12-11 | 2018-06-22 | 浙江捷尚人工智能研究发展有限公司 | 基于摄像头的门控制方法、装置及系统 |
CN109299703A (zh) * | 2018-10-17 | 2019-02-01 | 思百达物联网科技(北京)有限公司 | 对鼠情进行统计的方法、装置以及图像采集设备 |
CN109299703B (zh) * | 2018-10-17 | 2020-02-21 | 思百达物联网科技(北京)有限公司 | 对鼠情进行统计的方法、装置以及图像采集设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106447071A (zh) | 一种应用于视频监控场景的路径预测方法 | |
Zhang et al. | IoT-based positive emotional contagion for crowd evacuation | |
CN109902798A (zh) | 深度神经网络的训练方法和装置 | |
CN108803617A (zh) | 轨迹预测方法及装置 | |
CN107689052A (zh) | 基于多模型融合和结构化深度特征的视觉目标跟踪方法 | |
Mohammady et al. | Urban sprawl assessment and modeling using landsat images and GIS | |
Saroya et al. | Online exploration of tunnel networks leveraging topological CNN-based world predictions | |
CN109739926A (zh) | 一种基于卷积神经网络的移动对象目的地预测方法 | |
CN102360504A (zh) | 一种基于多自然特征的自适应虚实三维注册方法 | |
Xu et al. | Consistency-regularized region-growing network for semantic segmentation of urban scenes with point-level annotations | |
CN107301376A (zh) | 一种基于深度学习多层刺激的行人检测方法 | |
KR20200043005A (ko) | 이미지 인식 모델을 트레이닝시키는 장치 및 방법과 이미지 인식 장치 및 방법 | |
CN112070071B (zh) | 视频中的对象标注方法、装置、计算机设备及存储介质 | |
CN111737826B (zh) | 一种基于增强学习的轨道交通自动仿真建模方法及装置 | |
Liu et al. | Towards human-centric digital twins: Leveraging computer vision and graph models to predict outdoor comfort | |
Dubey et al. | Identifying indoor navigation landmarks using a hierarchical multi-criteria decision framework | |
Hashimoto et al. | An agent-based model reveals lost person behavior based on data from wilderness search and rescue | |
Sumagayan et al. | Detecting power lines using point instance network for distribution line inspection | |
Bastani et al. | Inferring and improving street maps with data-driven automation | |
Singh et al. | Fast semantic-aware motion state detection for visual slam in dynamic environment | |
Bellusci et al. | Semantic interpretation of raw survey vehicle sensory data for lane-level HD map generation | |
Zhong | A convolutional neural network based online teaching method using edge-cloud computing platform | |
Dubey et al. | Cognitive path planning with spatial memory distortion | |
CN114170678A (zh) | 基于多重空间图和时间融合的行人轨迹预测方法及装置 | |
Jiang et al. | Optimizing the Placement of Roadside LiDARs for Autonomous Driving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170222 |
|
WW01 | Invention patent application withdrawn after publication |