CN104915967B - 一种隧道内车辆运动路径的预测方法 - Google Patents
一种隧道内车辆运动路径的预测方法 Download PDFInfo
- Publication number
- CN104915967B CN104915967B CN201510234712.4A CN201510234712A CN104915967B CN 104915967 B CN104915967 B CN 104915967B CN 201510234712 A CN201510234712 A CN 201510234712A CN 104915967 B CN104915967 B CN 104915967B
- Authority
- CN
- China
- Prior art keywords
- photo
- vehicle
- value
- target vehicle
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明提供一种隧道内车辆运动路径的预测方法,该方法首先要先在隧道内部每隔一段用户指定的距离布置若干摄像头,并通过用户指定的时间拍摄若干照片,把照片的处理结果与照片库进行匹配,确定车辆的体征信息;然后对照片进行阈值分割,中值滤波等一系列处理,结合运动矢量来更新隧道中目标车辆的下一位置,完成对车辆的跟踪以及动态预测。本发明能够有效的获取出照片中所蕴含的信息,并将此信息及时反馈给驾驶员,为准确地分析隧道内车辆的行驶状况提供了丰富的内容基础。
Description
技术领域
本发明涉及一种隧道内车辆运动路径的预测方法,主要用于解决隧道中车辆的下一个位置预测问题,属于计算机视觉和数字图像处理以及数据挖掘交叉技术应用领域。
背景技术
计算机视觉,也就是计算机数字图像处理,是用计算机实现部分人类视觉的功能,把所测对象映射成数字图像,并模拟人的判别准则去理解图像和识别图像,进而对所测对象进行分类或分级。立体匹配是计算机视觉和非接触测量研究中最基本的关键问题之一,该技术通过像点的视差来获取深度或距离信息,它是一个迅速发展的新领域,涉及到人工智能、神经生物学、心理物理学、计算机科学、图象处理、图象理解、模式识别等多个领域,是一门多学科交叉的边缘科学。
数字图像处理作为一门学科形成于20世纪60年代初期。早期的图像处理的目的是改善图像的质量,它以人为对象,以改善人的视觉效果为目的。图像处理中,输入的是质量低的图像,输出的是改善质量后的图像,常用的图像处理方法有图像增强、复原、编码、压缩等。数字图像处理技术在国内外发展十分迅速,应用也非常广泛。农林部门通过遥感图像了解植物生长情况,进行估产,监视病虫害发展及治理。水利部门通过遥感图像分析,获取水害灾情的变化。气象部门用以分析气象云图,提高预报的准确程度。国防及测绘部门,使用航测或卫星获得地域地貌及地面设施等资料。机械部门可以使用图像处理技术,自动进行金相图分析识别。医疗部门采用各种数字图像技术对各种疾病进行自动诊断。但是就其学科建设来说,还不成熟,还没有广泛适用的研究模型和齐全的质量评价体系指标,多数方法的适用性都随分析处理对象而各异。
数据挖掘就是是对数据库中的大量业务数据进行抽取、转换、分析和其他模型化处理,从中提取关键性的数据。数据挖掘可分为两类:预言性数据挖掘和描述性数据挖掘。预言性数据挖掘是进行数据分析,建立一个或一组模型,并根据模型产生关于数据的预测;描述性数据挖掘是以概要的方式对数据信息进行描述,提供数据的有趣的一般性质。数据挖掘技术的应用领域十分广阔,它可以从关系数据库、数据仓库、文本和多媒体数据库、事务数据库和互联网等各种数据源上设法获取诸如分类模型、聚类模型、回归模型、关联模型和时间序列模型等多种知识模型。
发明内容
技术问题:本发明的目的是提供一种隧道内车辆运动路径的预测方法,在基于跟踪算法的考虑下,把隧道内车辆运动下一位置的概率进行估计,并及时给驾驶员反馈,以解决降低交通车祸发生率的问题。
技术方案:本发明所述的一种隧道内车辆运动路径的预测方法,通过摄像头拍取隧道内的过往车辆,然后将照片信息进行处理,利用跟踪算法对车辆流的状况进行估计,达到对车辆进行跟踪的目的。
本发明所述的一种隧道内车辆运动路径的预测方法包括以下步骤:
步骤1:在隧道内每隔一段用户指定的距离布置一个摄像头,摄像头在每隔用户指定的时间内拍取照片,根据这些照片识别出用户设定的目标车辆,获取每一张照片中目标车辆的位置。
对每张照片的处理过程如下:
步骤11:将照片映射为带权无向图G=<V,E>,其中,G代表无向图,V代表节点的集合,E代表无向图的边,图中每个节点N∈V对应于照片中的每个像素,每条边连接着一对相邻的像素,边的权值表示相邻像素之间在颜色方面的相似度。所述相似度是指像素内容的相似程度。
步骤12:将带权无向图G划分为子图,这样将照片进行分割,被分割的每个区域对应着图中的一个子图,划分过程为:将无向图G的顶点集V分成为两个子集V1和V2,使得图G中任意一条边都有两个端点。
步骤13:根据带权无向图G的子图,将属于车辆的信息聚集起来,对一辆整车进行信息提取,信息包括子图大小、图G中顶点的个数,这样实现从照片信息到车辆信息的转换,使用户得到所需的各种车辆信息,为进一步跟踪运动车辆提供必要的特征信息。
步骤14:将带权无向图G的子图信息与照片库中用户指定存储的目标车辆特征信息进行匹配,这些特征信息包括车辆的体积大小,车辆的轮廓等,判断目标车辆的外形大小信息,获得所处理这张照片中目标车辆在照片中位置。
步骤2:根据照片拍摄时间顺序,依次从每张照片的灰度直方图中目标车辆前方任意指定一个点,分别计算目标车辆在每张照片中到达前方该点位置的概率大小。
在第m照片中获得目标车辆到达相应点位置概率的具体过程见步骤21~步骤24,这里m取1到k之间的值,包括1和k,k是步骤1所处理的照片中有目标车辆照片数。
步骤21:测量照片每个像素的亮度得到的照片的灰度,根据灰度级对像素集合进行一个分划操作,得到的每个子集形成一个与现实景物相对应的区域,各个区域内部具有一致的属性,如照片的明暗程度,而相邻区域布局有这种一致属性。所述灰度是指照片亮度的明暗程度。所述分划操作是指将一个集合分为若干子集合,使得每一个子集合都不为空。
步骤22:设定用户指定的阈值,在照片中比该值大的颜色就会转换成白色,低于该值的颜色就转换成黑色,绘制成一张黑白照片的直方图。所述阈值就是系统中能产生一个偏离实际阈值的最小输入值。
步骤23:对照片进行中值滤波,得到Hi-1和Hi+1。所述中值滤波就是照片中一点的值用该点的一个相邻中各点值的中间值代替。其中,Hi-1表示当前照片中用户指定一点i左边的阈值,Hi+1表示当前照片中用户指定一点i右边的阈值。
i-1和i+1分别表示直方图中用户指定一点i的左边一点和右边一点。
步骤24:计算当前照片中目标车辆到达下一位置的概率
P(λi|Hi+1)=(R(Hi-1)*P(λi|Hi-1))/R(Hi+1)。其中,R(Hi-1)表示用户指定的一点左边的阈值Hi-1和该点阈值λi之比,即R(Hi-1)=Hi-1/λi,R(Hi+1)表示该点右边的阈值Hi+1和该点阈值λi之比,即P(Hi+1)=Hi+1/λi,P(λi|Hi-1)表示用户指定一点左边的灰度比概率,即P(λi|Hi-1)=λi 2*Hi-1。所述灰度比是指用户设定的阈值与实际灰度值之比。
步骤3:根据目标车辆的运动矢量去更新车辆的下一位置,所述运动矢量是指将照片的每一列分成许多互不重叠的部分,该部分内像素的位移量都相同,然后对每个部分到某一给定特定搜索范围内根据一定的匹配准则找出与当前部分最相似的部分,称为匹配部分,匹配部分与当前部分的相对位移就是运动矢量。具体过程为:
步骤31:采集摄像头拍取的一张照片,根据每一个目标车辆所对应的特征,组成当前目标序列,形成一个跟踪序列库,所述序列库中存储着被跟踪目标的参考特征。
步骤32:根据当前目标序列与跟踪序列中的每个目标之间的特征匹配值,,找出跟踪序列中每个被跟踪对象在当前目标序列中的最佳匹配,用当前目标序列中最佳匹配目标的特征值去更新跟踪序列中对应目标的参考特征值,完成一张照片的目标跟踪及特征更新。所述特征匹配值是指目标序列与跟踪序列库中被跟踪车辆之间的最小误差。
步骤33:完成目标车辆的特征更新后,重复上述步骤,多次计算车辆到达下一位置的概率,并根据求得概率的平均值,得到车辆位置信息,所述n为计算车辆到达下一位置概率的次数。
有益效果:本发明所述的一种方法隧道内车辆运动路径的预测方法通过在隧道内安装用户指定个数的摄像头拍取照片,然后将照片进行分割处理,再用跟踪算法计算车辆到达下一位置的概率大小,并将车辆流情况并将其发送车主,车主判断其信息对自己是否有益,从而提高驾驶警惕程度,降低车祸的发生率。
具体来说,本发明所述的方法具有如下的有益效果:
(1)隧道里安装的摄像头可适用性比较强,拍取到的照片比较完整。能够应用于各大道路系统,如高速,隧道等。
(2)通过不断寻找最适合跟踪的当前目标,实现了对目标车辆跟踪的精确度的提高。此外,本专利中的跟踪算法易于用户观察和理解。
(3)本发明自动化程度高,在整个检测过程中需要人工的参与很少。
附图说明
图1是隧道内车辆运动路径的预测方法流程图。
具体实施方式
本发明使用车辆跟踪算法,通过摄像头拍取隧道内的照片并将照片进行分析处理,进而求得车辆到达下一位置的概率,得到对驾驶员有用的信息,从而反馈给他们,降低车祸发生率。下面根据附图和实例对本发明作更详细的描述。
下面给出本发明的一个具体实例,该实例的工作流程如图1所示。
一种隧道内车辆运动路径的预测方法包括以下步骤:
第一阶段:
在隧道内每隔100M距离布置一个摄像头,该摄像头需要安装在隧道内部的同一侧,通过摄像头每隔2秒钟拍取几张照片,对每张照片的处理过程如下:将照片映射为带权无向图G=<V,E>,图中每个节点N∈V和照片中的每个像素相对应,每条边与相邻的像素相连接,无向图的边的权值表示相邻像素之间在颜色方面的相似度。
将带权无向图G划分为若干子图,就无向图的划分问题而言,Ci对应于图无向图区域,分割结果S则是照片区域的集合。虽然存在不同方法度量分割效果的好坏,但是,一般要求分割所得区域内部像素要相似,不同区域间像素差异较大,即内部边对应的权值相对较小,得到无向图的子图后,将属于同一车辆的信息聚集起来,对一辆整车实现信息提取,信息包括图G中顶点的个数和子图的大小。实现从照片信息到车辆信息的转换,为进一步跟踪运动车辆提供必要的特征信息。
照片库中保存着若干大小车辆的体积信息,摄像头会根据现在的照片以及存储的照片来判断目标车辆的外形大小信息。把匹配技术应用到当前照片中,对他们的运动矢量进行评估。:
第二阶段:
通过分析照片的灰度值来计算车辆到达下一位置的概率大小,用灰度扫描仪测量照片的灰度,根据灰度级对像素集合进行一个分划操作,得到的每个子集形成一个与现实景物相对应的区域,各个区域内部具有一致的属性,如照片的明暗程度,而相邻区域布局有这种一致属性。
测灰度级或者结构具有突变的地方,表明一个区域的终结,也是另一个区域开始的地方。这种不连续性称为边缘。不同的图像灰度不同,边界处一般有明显的边缘,利用此特征可以分割图像。图像中边缘处像素的灰度值不连续,这种不连续性可通过求导数来检测到,常用的算子有Roberts算子、Prewitt算子和Sobel算子。
根据照片设定用户指定的分割阈值T,比该值大的颜色就会转换成白色,低于该值的颜色就转换成黑色,绘制成一张黑白照片的直方图。照片直方图的原理是以区域为对象进行分割,以相似性原则作为分割的依据,即可根据图像的灰度、色彩、变换关系等方面的特征相似来划分图像的子区域,并将各像素划归到相应物体或区域的像素方法。
选取用户设定的分割阈值用T分割图像,得到两组像素G1和G2,其中G1是大于T的,G2是小于等于T的,计算G1和G2中像素的平均值M1和M2,然后计算新阈值迭代计算上述步骤,直到T的差值小于某个用户指定的值。
计算当前照片中目标车辆到达下一位置的概率
P(λi+1|Hi+1)=(P(Hi)*P(λi|Hi))/P(Hi+1)。以此作为准则,则图像的混乱程度E:
E=-P(Gb)lgP(Gb)-P(Gf)lgP(Gf),其中,P(Gb)表示直方图中任意一点的左边灰度值概率,P(Gf)表示直方图中任意一点的右边灰度值概率。当P(Gf)=0.15时图像的混乱程度E取得最大。通过计算Emin=|P(Gf)-0.15|的值来减小误差,得到更准确的灰度运动矢量。根据固定阈值T进行照片分割,得到车辆下一位置的概率,以上算法称为车辆跟踪算法。
第三阶段:
将获得的车辆照片分割后得到A×B的平面坐标,平面坐标上任意一点(a,b)均可以用复数的形式z=a+bi表示出来。计算|得到每个共轭向量的大小,每个矢量的模平方根据SM=Z2conjugate(Z)来计算,获得每个矢量模平方后,它的平均值通过来计算。如果每个车辆流矢量的幅值都高于平均值,那么下一个移动的点就可以在平面坐标上被确定了,事实证明大约有三千多个这样被确定的点。
一些车辆被检测以后,基于跟踪的那部分区域就被使用过了。无论什么时候一个新的车辆信息被跟踪了,那么它被赋予一个号码,并且按照递增的方式被分配了,它的周围车辆都以它为中心。该方法能根据当前的车辆位置和速度预测的它的下一个位置。它有助于跟踪保持几乎恒定的速度的车辆。
对车辆进行跟踪,每当采集一张照片,就计算每一个目标车辆所对应的特征,组成当前目标序列,形成一个跟踪序列库,该序列中存储着被跟踪目标的参考特征。计算当前目标序列与跟踪序列中的每个目标之间的特征匹配值,根据匹配值计算结果,找出跟踪序列中每个被跟踪对象在当前目标序列中的最佳匹配,用当前目标序列中最佳匹配目标的特征值去更新跟踪序列中对应目标的参考特征值,完成一张照片的运动目标跟踪及动态特征更新。
通过计算取得的矢量模平方的平均值后,结合所求得的目标运动概率来判断车辆下一个位置的信息,对车辆进行跟踪。
Claims (3)
1.一种隧道内车辆运动路径的预测方法,其特征在于该方法包括以下步骤:
步骤1:在隧道内每隔一段用户指定的距离布置一个摄像头,摄像头在每个用户指定的时间内拍取照片,根据这些照片识别出用户设定的目标车辆,对每张照片进行处理,获取每一张照片中目标车辆的位置;
步骤2:根据照片拍摄时间顺序,依次从每张照片的灰度直方图中目标车辆前方任意指定一个点,分别计算目标车辆在每张照片中到达前方该点位置的概率大小;在第i张照片中获得目标车辆到达相应点位置概率;
步骤3:根据目标车辆的运动矢量去更新车辆的下一位置,所述运动矢量是指将照片的每一列分成许多互不重叠的部分,该部分内像素的位移量都相同,然后对每个部分到某一给定特定搜索范围内根据一定的匹配准则找出与当前部分最相似的部分,称为匹配部分,匹配部分与当前部分的相对位移就是运动矢量,具体过程为:
步骤31:采集摄像头拍取的一张照片,根据每一个目标车辆所对应的特征,组成当前目标序列,形成一个跟踪序列库,所述序列库中存储着被跟踪目标的参考特征,
步骤32:根据当前目标序列与跟踪序列中的每个目标之间的特征匹配值,找出跟踪序列中每个被跟踪对象在当前目标序列中的最佳匹配,用当前目标序列中最佳匹配目标的特征值去更新跟踪序列中对应目标的参考特征值,完成一张照片的目标跟踪及特征更新,所述特征匹配值是指目标序列与跟踪序列库中被跟踪车辆之间的最小误差;
步骤33:完成目标车辆的特征更新后,重复上述步骤,多次计算车辆到达下一位置的概率,并根据求得概率的平均值,得到车辆位置信息,所述n为计算车辆到达下一位置概率的次数,其中,Hi+1表示当前照片中用户指定一点i右边的阈值,k是步骤1所处理的照片中有目标车辆照片数;λi是i点阈值。
2.根据权利要求1所述的一种隧道内车辆运动路径的预测方法,其特征在于对每张照片进行处理,获取每一张照片中目标车辆的位置的方法为:
步骤11:将照片映射为带权无向图G=<V,E>,其中,G代表无向图,V代表节点的集合,E代表无向图的边,图中每个节点N∈V对应于照片中的每个像素,每条边连接着一对相邻的像素,边的权值表示相邻像素之间在颜色方面的相似度,所述相似度是指像素内容的相似程度;
步骤12:将带权无向图G划分为子图,这样将照片进行分割,被分割的每个区域对应着图中的一个子图,划分过程为:将无向图G的顶点集V分成为两个子集V1和V2,使得图G中任意一条边都有两个端点;
步骤13:根据带权无向图G的子图,将属于车辆的信息聚集起来,对一辆整车进行信息提取,信息包括子图大小、图G中顶点的个数,这样实现从照片信息到车辆信息的转换,使用户得到所需的各种车辆信息,为进一步跟踪运动车辆提供必要的特征信息;
步骤14:将带权无向图G的子图信息与照片库中用户指定存储的目标车辆特征信息进行匹配,这些特征信息包括车辆的体积大小,车辆的轮廓,判断目标车辆的外形大小信息,获得所处理这张照片中目标车辆在照片中位置。
3.根据权利要求1所述的一种隧道内车辆运动路径的预测方法,其特征在于在第i张照片中获得目标车辆到达相应点位置概率的具体过程为步骤21~步骤24,这里i取1到k之间的值,包括1和k,k是步骤1所处理的照片中有目标车辆照片数;
步骤21:测量照片每个像素的亮度得到的照片的灰度,根据灰度级对像素集合进行一个分划操作,得到的每个子集形成一个与现实景物相对应的区域,各个区域内部具有一致的属性,而相邻区域布局有这种一致属性;所述灰度是指照片亮度的明暗程度,所述分划操作是指将一个集合分为若干子集合,使得每一个子集合都不为空;
步骤22:设定用户指定的阈值,在照片中比该值大的颜色就会转换成白色,低于该值的颜色就转换成黑色,绘制成一张黑白照片的直方图;所述阈值就是系统中能产生一个偏离实际阈值的最小输入值;
步骤23:对照片进行中值滤波,得到Hi-1和Hi+1;所述中值滤波就是照片中一点的值用该点的一个相邻中各点值的中间值代替,其中,Hi-1表示当前照片中用户指定一点i左边的阈值,Hi+1表示当前照片中用户指定一点i右边的阈值,i-1和i+1分别表示直方图中用户指定一点i的左边一点和右边一点;
步骤24:计算当前照片中目标车辆到达下一位置的概率P(λi|Hi+1)=(R(Hi-1)*P(λi|Hi-1))/R(Hi+1),其中,R(Hi-1)表示用户指定的一点左边的阈值Hi-1和该点阈值λi之比,即R(Hi-1)=Hi-1/λi,R(Hi+1)表示该点右边的阈值Hi+1和该点阈值λi之比,即P(Hi+1)=Hi+1/λi,P(λi|Hi-1)表示用户指定一点左边的灰度比概率,即P(λi|Hi-1)=λi 2*Hi-1,所述灰度比是指用户设定的阈值与实际灰度值之比。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510234712.4A CN104915967B (zh) | 2015-05-08 | 2015-05-08 | 一种隧道内车辆运动路径的预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510234712.4A CN104915967B (zh) | 2015-05-08 | 2015-05-08 | 一种隧道内车辆运动路径的预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104915967A CN104915967A (zh) | 2015-09-16 |
CN104915967B true CN104915967B (zh) | 2018-03-06 |
Family
ID=54085004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510234712.4A Active CN104915967B (zh) | 2015-05-08 | 2015-05-08 | 一种隧道内车辆运动路径的预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104915967B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101714250B1 (ko) | 2015-10-28 | 2017-03-08 | 현대자동차주식회사 | 주변 차량의 이동 경로의 예측 방법 |
US10331138B2 (en) * | 2016-07-05 | 2019-06-25 | Baidu Usa Llc | Standard scene-based planning control methods for operating autonomous vehicles |
CN107194359B (zh) * | 2017-05-26 | 2021-01-22 | 深圳大学 | 一种视频图像序列的尺度空间构造方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0840138A1 (en) * | 1996-11-04 | 1998-05-06 | Samsung Electronics Co., Ltd. | Navigation apparatus informing of peripheral situation of vehicle and method for controlling the same |
CN101916383A (zh) * | 2010-08-25 | 2010-12-15 | 浙江师范大学 | 基于多摄像机的车辆检测跟踪识别系统 |
CN101950426A (zh) * | 2010-09-29 | 2011-01-19 | 北京航空航天大学 | 一种多摄像机场景下车辆接力跟踪方法 |
CN102129785A (zh) * | 2011-03-18 | 2011-07-20 | 沈诗文 | 大场景停车场智能管理系统 |
CN103617410A (zh) * | 2013-08-30 | 2014-03-05 | 重庆大学 | 基于视频检测技术的高速公路隧道停车检测方法 |
-
2015
- 2015-05-08 CN CN201510234712.4A patent/CN104915967B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0840138A1 (en) * | 1996-11-04 | 1998-05-06 | Samsung Electronics Co., Ltd. | Navigation apparatus informing of peripheral situation of vehicle and method for controlling the same |
CN101916383A (zh) * | 2010-08-25 | 2010-12-15 | 浙江师范大学 | 基于多摄像机的车辆检测跟踪识别系统 |
CN101950426A (zh) * | 2010-09-29 | 2011-01-19 | 北京航空航天大学 | 一种多摄像机场景下车辆接力跟踪方法 |
CN102129785A (zh) * | 2011-03-18 | 2011-07-20 | 沈诗文 | 大场景停车场智能管理系统 |
CN103617410A (zh) * | 2013-08-30 | 2014-03-05 | 重庆大学 | 基于视频检测技术的高速公路隧道停车检测方法 |
Non-Patent Citations (5)
Title |
---|
Efficient Feature Extraction and Likelihood Fusion for Vehicle Tracking in Low Frame Rate Airborne Video;Kannappan Palaniappan 等;《Information Fusion (FUSION), 2010 13th Conference on》;20100729;1-8 * |
Online Multicam era Tracking with a Switching State-Space Model;Wojciech Zajdel 等;《Pattern Recognition, International Conference on. IEEE Computer Society》;20040826;摘要,第3章,第4章 * |
一种路径概率感知的无线传感器网络目标跟踪协议;张力 等;《计算技术与自动化》;20090615;第28卷(第2期);107-110 * |
基于图论的图像分割研究进展;闫成新 等;《计算机工程与应用》;20060211;第2章,第4章 * |
运动车辆检测与跟踪方法;娄路 等;《交通运输工程学报》;20120815;第12卷(第4期);107-113 * |
Also Published As
Publication number | Publication date |
---|---|
CN104915967A (zh) | 2015-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
Alcantarilla et al. | Street-view change detection with deconvolutional networks | |
CN109598794B (zh) | 三维gis动态模型的构建方法 | |
JP6397379B2 (ja) | 変化領域検出装置、方法、及びプログラム | |
Xie et al. | Population estimation of urban residential communities using remotely sensed morphologic data | |
CN109919944B (zh) | 一种复杂场景建筑物变化检测的联合超像素图割优化方法 | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
Freire et al. | Introducing mapping standards in the quality assessment of buildings extracted from very high resolution satellite imagery | |
Mihail et al. | Sky segmentation in the wild: An empirical study | |
Bremer et al. | Eigenvalue and graph-based object extraction from mobile laser scanning point clouds | |
Tan et al. | Vehicle detection in high resolution satellite remote sensing images based on deep learning | |
CN104915967B (zh) | 一种隧道内车辆运动路径的预测方法 | |
Sameen et al. | A simplified semi-automatic technique for highway extraction from high-resolution airborne LiDAR data and orthophotos | |
CN116597122A (zh) | 数据标注方法、装置、电子设备及存储介质 | |
Farooq et al. | Efficient object proposals extraction for target detection in VHR remote sensing images | |
Wężyk et al. | Determination of the number of trees in the Bory Tucholskie National Park using crown delineation of the canopy height models derived from aerial photos matching and airborne laser scanning data | |
Gerke et al. | Graph matching in 3D space for structural seismic damage assessment | |
Bores et al. | Urban traffic monitoring from aerial LIDAR data with a two-level marked point process model | |
Kunyuan et al. | Automated object extraction from MLS data: A survey | |
Yastikli et al. | Building extraction using multi sensor systems | |
Tutzauer et al. | Processing of crawled urban imagery for building use classification | |
Ankayarkanni et al. | Object based segmentation techniques for classification of satellite image | |
González et al. | Leveraging dynamic occupancy grids for 3D object detection in point clouds | |
Liu et al. | Identification of Damaged Building Regions from High-Resolution Images Using Superpixel-Based Gradient and Autocorrelation Analysis | |
Kasu et al. | Identification of water and green regions in OpenStreetMap using modified densitometry 3 channel algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |