CN101739553B - 一种视差图像中目标识别方法 - Google Patents

一种视差图像中目标识别方法 Download PDF

Info

Publication number
CN101739553B
CN101739553B CN2009102311860A CN200910231186A CN101739553B CN 101739553 B CN101739553 B CN 101739553B CN 2009102311860 A CN2009102311860 A CN 2009102311860A CN 200910231186 A CN200910231186 A CN 200910231186A CN 101739553 B CN101739553 B CN 101739553B
Authority
CN
China
Prior art keywords
parallax
minimum value
value point
maximum value
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2009102311860A
Other languages
English (en)
Other versions
CN101739553A (zh
Inventor
王晓曼
刘微
刘韶
魏楠楠
李月高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Hisense Network Technology Co Ltd
Original Assignee
Qingdao Hisense Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Hisense Network Technology Co Ltd filed Critical Qingdao Hisense Network Technology Co Ltd
Priority to CN2009102311860A priority Critical patent/CN101739553B/zh
Publication of CN101739553A publication Critical patent/CN101739553A/zh
Application granted granted Critical
Publication of CN101739553B publication Critical patent/CN101739553B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种视差图像中目标识别方法,包括以下步骤:a、对所述视差图像进行分割得到若干视差区域;b、对所述若干视差区域进行投影定位获得目标位置。本发明中,由于事先对所述视差图像进行了分割,再针对分割后的区域进行投影定位获得目标位置,会大大降低漏检情况的发生,识别率高。

Description

一种视差图像中目标识别方法
技术领域
本发明涉及图像处理领域,尤其涉及一种视差图像中目标识别方法。
背景技术
现有的目标定位技术中,一般采用差分图像投影的方法。该方法由于直接对差分图像进行投影定位,一般仅针对背景相对简单的情况,对于并排、前后拥挤的情况无法较好的识别,漏检情况较为严重。
发明内容
本发明所要解决的技术问题在于提供一种识别更加准确的方法。
为了解决上述技术问题,本发明提出一种视差图像中目标识别方法,包括以下步骤:
a、对所述视差图像进行分割得到若干视差区域;
b、对所述若干视差区域进行投影定位获得目标位置。
其中,所述步骤a中,对视差图像的分割采用极值预测分割或宽度预测分割。
其中,所述极值预测包括以下步骤:
获得视差图像中每行/列中的灰度极大值,并依据所述极大值拟合出对应曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在行/列对所述视差图像进行分割。
其中,所述宽度预测包括以下步骤:
获得视差图像中每行/列的像素点个数,并依据该像素点个数拟合出对应的曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在行/列对所述视差图像进行分割。
其中,所述步骤a中,对视差图像的分割采用先对所述视差图像进行极值预测分割,再对所述极值预测分割后的视差区域进行宽度预测分割。
其中,步骤a包括以下步骤:
极值预测:
获得视差图像中每行/列中的灰度极大值,并依据所述极大值拟合出对应曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在行/列对所述视差图像进行分割得到初级视差区域;
宽度预测:
获得所述初级视差区域中每行/列的像素点个数,并依据该像素点个数拟合出对应的曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在行/列对所述初级视差区域进行分割得到视差区域。
其中,步骤a包括以下步骤:
水平极值预测/垂直极值预测:
获得视差图像中每列/行的灰度极大值,并依据所述极大值拟合出对应曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在行/列对所述视差图像进行分割得到初级视差区域;
垂直极值预测/水平极值预测:
获得所述初级视差区域中每行/列的灰度极大值,并依据所述极大值拟合出对应曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在行/列对所述初级视差区域进行分割得到次级视差区域;
宽度预测:
获得所述次级视差区域中每列的像素点个数,并依据该像素点个数拟合出对应的曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在列对所述次级视差区域进行分割得到视差区域。
其中,所述宽度预测的步骤还包括:
判断在其分割方向上最后一组像素点与其前的极小值点在与所述分割方向正交方向上的距离是否小于预设值,若是则不以该极小值点进行分割。
其中,所述宽度预测的步骤还包括:
判断相邻的极大值点与极小值点间在与分割方向正交方向上的距离是否小于预设值,若是则不以该极小值点进行分割。
其中,该方法应用于公交车拥挤状况下的目标识别。
本发明中,由于事先对所述视差图像进行了分割,再针对分割后的区域进行投影定位获得目标位置,会大大降低漏检情况的发生,识别率高。
附图说明
图1是本发明一种视差图像中目标识别方法的一个实施例的流程图;
图2是图1所示实施例中步骤S11的一个实施例的流程图;
图3是图1所示实施例中步骤S11的另一个实施例的流程图;
图4是图1所示实施例中步骤S11的再一个实施例的流程图;
图5是图1所示实施例中步骤S12的一个实施例的流程图;
图6是实际图像与其视差图像的一个实施例的示意图;
图7是对图6所示实施例中视差图像进行水平极值预测分割的示意图;
图8是对图7所示实施例中k1初级视差区域进行垂直极值预测分割的示意图;
图9是对图8所示实施例中k13次级视差区域进行宽度预测分割的示意图;
图10是对图6所示实施例中视差图像进行目标识别的最终结果的示意图;
图11是宽度预测中一个曲线的实施例的示意图。
具体实施方式
下面结合附图对本发明进行详细阐述。
参考图1,图示了本发明一种视差图像中目标识别方法的一个实施例的流程图。如图所示,包括以下步骤:
步骤S11,对视差图像进行分割得到若干视差区域。
由于对整幅视差图像直接进行处理会由于目标较为密集的原因而产生比较严重的漏检现象,通过本步骤对视差图像进行分割,然后对小块的视差区域进行下一步的处理能够有效降低目标漏检情况的发生。
本步骤的详细过程可以参考图2、图3或图4所示实施例。
步骤S12,对所述若干视差区域进行投影定位获得目标位置。
本步骤中,对上一步得到的每个视差区域进行投影定位,具体其可以采用与现有技术对整幅视差图像进行投影定位相同的方式。其一个实施例可以参考图5。
步骤S13,结束。
参考图2,图示了图1所示实施例中步骤S11的一个实施例的流程图。如图所示,包括以下步骤:
步骤S21,获得视差图像中每行/列的灰度极大值,并据以拟合得到曲线函数。
例如,对于图7所示的视差图像来说,计算其每列的灰度极大值,并根据该极大值拟合出函数曲线。这种针对每列的灰度极大值的方式可以称之为水平极值预测。
例如,对于图8所示的初级视差区域来说,计算其每行的灰度极大值,并根据该极大值拟合出函数曲线。这种针对每行的灰度极大值的方式可以称之为水平极值预测。
本步骤中,由于对曲线拟合来说是公知技术,不再做进一步阐述。
步骤S22,对曲线函数进行二阶差分运算得到其极大值点和极小值点。
由于对函数的二阶差分运算为公知技术,故对本步骤不再做进一步阐述。
步骤S23,遍历所述极小值点,判断其前极值点是否是极大值点,以满足条件的极小值点所在行/列对所述视差图像进行分割。
对于上一步得到的若干极大值点和极小值点,本步骤中对每个极小值点进行判断,判断其前面的极值点是否是极大值点,若是则在所述极小值点所在的行/列对所述视差图像进行分割。
例如,对于图7所示视差图像来说,在经过了步骤S21和步骤S22的处理后,本步骤进行上述判断找到了符合条件的一个极小值点,便以该极小值点所在的列对该视差图像进行分割,也就是图中所示的直线m进行分割,得到左右两个视差区域。
例如,对于图8所示的初级视差图像来说,在经过了步骤S21和步骤S22的处理后,本步骤进行上述判断找到了符合条件的两个极小值点,便以这两个极小值点所在的行对该视差图像进行分割,也就是图中所示的直线n和直线p进行分割,得到上、中、下三块视差区域。
步骤S24,结束。
可见,通过上述的水平极值预测可以在水平方向上对视差图像进行分割,通过上述的垂直极值预测可以在垂直方向上对视差图像进行分割。
参考图3,图示了图1所示实施例中步骤S11的另一个实施例的流程图。如图所示,包括以下步骤:
步骤S31,获得视差图像中每行/列的像素点个数,并据以拟合得到曲线函数。
例如,对于图9所示的次级视差区域来说,计算其每列的像素点个数,根据得到的数据拟合得到一个曲线函数。
步骤S32,对曲线函数进行二阶差分运算得到其极大值点和极小值点。
本步骤可以参考步骤S22,不再重复说明。
步骤S33,遍历所述极小值点,判断其前极值点是否是极大值点,以满足条件的极小值点所在行/列对所述视差图像进行分割。
例如,对于图9来说,遍历上一步得到的极小值点并通过上述判断可以得到一个符合条件极小值点,以该极小值点所在的列对图9所示次级视差区域进行分割,也就是图中直线q所在位置进行分割,得到了两个视差区域。
步骤S34,结束。
本实施例实际上可以认为是宽度预测,其利用了每行/列的像素点个数进行曲线拟合,而不是如图2实施例利用每行/列的灰度极大值点进行曲线拟合。同样,上述举例仅以列为例进行说明,当然也适用于对行的处理,由于原理相同过程类似,本领域技术人员据上述描述可以推理得到,故不再赘述。
需要说明的是,通过以上描述可知,对于步骤S11来说,可以采用水平极值预测进行分割,或者采用垂直极值预测进行分割,或者采用宽度预测进行分割。对于水平和垂直极值预测分割来说,其对于人群高矮差别较小的情况较为适用,而对于高矮差别较大的情况则相对误差较大,但仍比所述差分投影方法要优。而对所述宽度预测分割来说,其对所述高矮差别较大的情况来说,效果较好。
而对于水平极值预测和垂直极值预测来说,而分别适用于不同人群分布。水平极值预测更加适用于人群水平分区分布的情形,而垂直极值预测则更加适用于人群垂直分区分布的情形。
因而,本领域技术人员可以想到,将所述三种预测分割方式进行两两按序组合,或全部均采用。对于两个按序组合的情况来说,优选的可以采用先进行水平极值预测分割,再对分割的视频区域再进行垂直极值预测分割,从而得到最终的视频区域,或者反过来,先进行垂直极值预测分割,再进行水平极值预测分割;或者,先进行水平或垂直极值预测分割,对分割后的视频区域再进行宽度预测分割得到最终的视频区域。当然,其它的按序组合方式也适用,不再一一阐述。
对于三种预测分割方式全部均采用的情形,按照排列组合方式,也可以形成6中方案,下面仅就其中一种进行阐述,剩余方案可以类推得到,不再一一阐述。
参考图4,图示了图1所示实施例中步骤S11的再一个实施例的流程图。如图所示,同时参考图6至图9,图6中所示中,左半部分①为原始图像,而右半部分②为①的视差图像(通过差分去除背景后的),包括以下步骤:
步骤S40,获得视差图像中每类的灰度极大值并据以拟合得到曲线函数。
也就是,对图7中所示视差图像的每列的灰度极大值进行计算,并根据得到的极大值点拟合得到函数曲线。
本步骤可以参考步骤S21。
步骤S41,对曲线函数进行二阶差分运算得到其极大值点和极小值点。
本步骤可以参考步骤S22。
步骤S42,遍历极小值点判断其前极值点是否是极大值点,以满足条件的极小值点所在列对所述视差图像进行分割得到初级视差区域。
本步骤中,以图7来说,得到了一个极小值点,以该极小值点所在的列,也就是图中直线m所在位置对所述视差图像进行分割。得到了两个初级视差区域k1和k2。
步骤S43,获得初级视差区域中每行的灰度极大值并据以拟合得到曲线函数。
本步骤中,以图8为例,图8是图7中k1初级视差区域。本步骤中,计算图8中每行的灰度极大值,并根据该会极大值进行曲线拟合。
步骤S44,对曲线函数进行二阶差分预算得到其极大值点和极小值点。
本步骤可以参考步骤S22。
步骤S45,遍历极小值点判断其前极值点是否是极大值点,以满足条件的极小值点所在行对所述视差图像进行分割得到次级视差区域。
对于图8来说,通过本步骤得到了两个符合条件的极小值点,那么以该极小值点所在的行,也就是图中直线n、p所在位置,对所述初级视差区域k1进行分割,得到三个次级视差区域k11、k12、k13。
也按照同样的处理方式对初级视差区域k2进行处理。
步骤S46,获得次级视差区域中每列的像素点个数并据以拟合得到曲线函数。
如图9所示,其是k13次级视差区域。本步骤中,对其每列的像素点个数进行计算,并根据计算结果进行曲线拟合。
步骤S47,对曲线函数进行二阶差分预算得到其极大值点和极小值点。
本步骤可以参考步骤S32。
步骤S48,遍历极小值点判断其前极值点是否是极大值点,以满足条件的极小值点所在列对所述视差图像进行分割得到次级视差区域。
对于图9来说,通过本步骤得到一个符合条件的极小值点,那么以该极小值点所在的列,也就是直线q所在位置,对所述次级视差区域k13进行分割,得到两个视差区域k131和k132。
以同样的处理方式对k11及k12进行处理。
步骤S49,结束。
通过上述过程,便将图6所示一个完整的视差图像在水平方向,垂直方向及宽度上进行了分割,得到了若干视差区域。
另外,可以看出步骤S40至步骤S42相当于一个水平极值预测过程,步骤S43至步骤S45相当于一个垂直极值预测过程,步骤S46至步骤S48相当于宽度预测过程。
需要说明的是,在宽度预测过程中有可能会出现一下情形:
参考图11,图示了宽度预测中一个曲线的实施例的示意图。如图所示,图中的曲线即为宽度预测过程中所拟合的曲线,该曲线的起点是t1,终点是t4,极大值点为t2,极小值点t3,s1至s4分别是对应点的列(或者行)所在的直线。
在实际过程中,有可能在极小值点t3所处位置通过边界s3进行分割后,s3与s4之间的距离较小,还不足以形成一个目标;因而,要把这种情况排除,故当确定了极小值点之后进行了分割后,对视差图像的最后一点与其前的极小值点在与所述分割方向(s2、s3直线所在方向)正交的方向上的距离(L2)小于预设距离的情形予以剔除,即对s3之后的区域便不进行投影定位。所述距离也就是像素点数目。
另一种情况是,由于某种原因使得视差图像的边缘有锯齿出现,这样在该锯齿的凹陷处最低点所在的行/列便只有较少的像素(一般被处理为极小值点),而其两侧的锯齿尖端处最高点所在行/列则有较多的像素点(一般被处理为极大值点),很显然的,锯齿的最低点和最高点之间的距离是非常的小的,其不可能存在一个目标。所以,还需要对与极小值点相邻的极大值点之间的距离进行判断,若这个距离(也可以认为是像素点的个数)小于设定值,那么就认为属于上述锯齿的情况,进而不以所述极小值点所在位置进行分割。
其中,所述距离是指极小值点所在行/列与极大值点所在行/列在于分割方向正交的方向上的像素点数,对于图11中的例子来说,也就是s2与s3之间的距离L1。
参考图5,图示了图1所示实施例中步骤S12的一个实施例的流程图。如图所示,本步骤是针对经过步骤S11处理后得到的全部视差区域,包括:
步骤S51,计算纵向及横向投影数据。
例如,对于视差区域k131来说,计算每列和每行的像素点灰度值之和,该数据即为在纵向和横向上的投影数据。
步骤S52,拟合得到两个方向上的投影曲线。
对于纵向和横向上的像素点灰度值之和进行拟合,得到两个曲线函数。
步骤S53,对两个曲线作二阶差分运算得到极大值点。
本步骤可以参考步骤S22。
步骤S54,对两个方向的极大值点进行两两配对。
即,若x方向有两个极大值点其横坐标分别为x1,x2,若y方向有两个极大值点其纵坐标分别为y1,y2,那么经过两两配对便可以形成(x1,y1)、(x1,y2)、(x2,y1)、(x2,y2)四个坐标。
对于图9中的视差区域k131来说,由于其在两个方向上都只有一个极大值点,因而经过两两配对后,只确定了一个坐标。
步骤S55,确定配对后的坐标位置为目标位置。
即,对上上一步中的例子来说,(x1,y1)、(x1,y2)、(x2,y1)、(x2,y2)四个坐标所在位置便是四个目标。
步骤S56,结束。
值得注意的是,由于步骤S12的过程为公知技术,因而本实施例仅对其进行简单阐述。
对于图6所示的实施例来说,经过步骤S12的处理后,便得到了图10中7个目标,其将实际图像中的目标位置和个数完全的正确锁定。
本发明中,由于事先对所述视差图像进行了分割,再针对分割后的区域进行投影定位获得目标位置,会大大降低漏检情况的发生,识别率高。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (8)

1.一种视差图像中目标识别方法,包括以下步骤:
a、对所述视差图像进行分割得到若干视差区域,对视差图像的分割采用先对所述视差图像进行极值预测分割,再对所述极值预测分割后的视差区域进行宽度预测分割;其中,
所述极值预测分割包括以下步骤:
获得视差图像中每行/列中的灰度极大值,并依据所述极大值拟合出对应曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在行/列对所述视差图像进行分割得到初级视差区域;
所述宽度预测分割包括以下步骤:
获得所述初级视差区域中每行/列的像素点个数,并依据该像素点个数拟合出对应的曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在行/列对所述初级视差区域进行分割得到视差区域;
b、对所述若干视差区域进行投影定位获得目标位置。
2.根据权利要求1所述的一种视差图像中目标识别方法,其特征在于,所述宽度预测的步骤还包括:
判断在其分割方向上最后一组像素点与其前的极小值点在与所述分割方向正交方向上的距离是否小于预设值,若是则不以该极小值点进行分割。
3.根据权利要求1所述的一种视差图像中目标识别方法,其特征在于,所述宽度预测的步骤还包括:
判断相邻的极大值点与极小值点间在与分割方向正交方向上的距离是否小于预设值,若是则不以该极小值点进行分割。
4.根据权利要求1或2或3所述的一种视差图像中目标识别方法,其特征在于,该方法应用于公交车拥挤状况下的目标识别。
5.一种视差图像中目标识别方法,其特征在于,包括以下步骤:
a、对所述视差图像进行分割得到若干视差区域,对视差图像的分割采用先对所述视差图像进行极值预测分割,再对所述极值预测分割后的视差区域进行宽度预测分割;具体步骤为:
水平极值预测/垂直极值预测:
获得视差图像中每列/行的灰度极大值,并依据所述极大值拟合出对应曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在列/行对所述视差图像进行分割得到初级视差区域;
垂直极值预测/水平极值预测:
获得所述初级视差区域中每行/列的灰度极大值,并依据所述极大值拟合出对应曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在行/列对所述初级视差区域进行分割得到次级视差区域;
宽度预测:
获得所述次级视差区域中每列的像素点个数,并依据该像素点个数拟合出对应的曲线函数;
获得所述曲线函数的极大值点和极小值点;
遍历上一步得到的极小值,判断其前极值点是否是极大值点,以满足该条件的极小值点所在列对所述次级视差区域进行分割得到视差区域;
b、对所述若干视差区域进行投影定位获得目标位置。
6.根据权利要求5所述的一种视差图像中目标识别方法,其特征在于,所述宽度预测的步骤还包括:
判断在其分割方向上最后一组像素点与其前的极小值点在与所述分割方向正交方向上的距离是否小于预设值,若是则不以该极小值点进行分割。
7.根据权利要求5所述的一种视差图像中目标识别方法,其特征在于,所述宽度预测的步骤还包括:
判断相邻的极大值点与极小值点间在与分割方向正交方向上的距离是否小于预设值,若是则不以该极小值点进行分割。
8.根据权利要求5或6或7所述的一种视差图像中目标识别方法,其特征在于,该方法应用于公交车拥挤状况下的目标识别。
CN2009102311860A 2009-12-10 2009-12-10 一种视差图像中目标识别方法 Active CN101739553B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009102311860A CN101739553B (zh) 2009-12-10 2009-12-10 一种视差图像中目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009102311860A CN101739553B (zh) 2009-12-10 2009-12-10 一种视差图像中目标识别方法

Publications (2)

Publication Number Publication Date
CN101739553A CN101739553A (zh) 2010-06-16
CN101739553B true CN101739553B (zh) 2012-01-11

Family

ID=42463022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009102311860A Active CN101739553B (zh) 2009-12-10 2009-12-10 一种视差图像中目标识别方法

Country Status (1)

Country Link
CN (1) CN101739553B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871042B (zh) * 2012-12-12 2016-12-07 株式会社理光 基于视差图的视差方向上连续型物体检测方法和装置
CN104050654B (zh) * 2013-03-11 2017-06-09 株式会社理光 道路边缘检测方法和装置
CN104915943B (zh) * 2014-03-12 2018-03-06 株式会社理光 用于在视差图中确定主要视差值的方法和装置
CN107993233B (zh) * 2016-10-26 2022-02-22 中国科学院深圳先进技术研究院 一种坑区域的定位方法及装置
CN108304863B (zh) * 2018-01-12 2020-11-20 西北大学 一种利用学习不变特征变换的兵马俑图像匹配方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1885346A (zh) * 2006-06-01 2006-12-27 电子科技大学 一种复杂背景下红外图像序列中运动目标的检测方法
CN101286239A (zh) * 2008-04-22 2008-10-15 北京航空航天大学 航拍交通视频车辆快速检测方法
CN101527046A (zh) * 2009-04-28 2009-09-09 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
CN101556697A (zh) * 2008-04-10 2009-10-14 上海宝康电子控制工程有限公司 一种基于快速特征点的运动目标跟踪方法与系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1885346A (zh) * 2006-06-01 2006-12-27 电子科技大学 一种复杂背景下红外图像序列中运动目标的检测方法
CN101556697A (zh) * 2008-04-10 2009-10-14 上海宝康电子控制工程有限公司 一种基于快速特征点的运动目标跟踪方法与系统
CN101286239A (zh) * 2008-04-22 2008-10-15 北京航空航天大学 航拍交通视频车辆快速检测方法
CN101527046A (zh) * 2009-04-28 2009-09-09 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统

Also Published As

Publication number Publication date
CN101739553A (zh) 2010-06-16

Similar Documents

Publication Publication Date Title
US8818077B2 (en) Stereo image matching apparatus and method
US7876954B2 (en) Method and device for generating a disparity map from stereo images and stereo matching method and device therefor
US9237326B2 (en) Imaging system and method
US8515134B2 (en) System and method for motion estimation using image depth information
EP2547111B1 (en) Method and apparatus for processing multi-view image using hole rendering
US8923560B2 (en) Exterior environment recognition device
JP5164351B2 (ja) 物体検出装置および物体検出方法
JP4832227B2 (ja) 物体検出装置および物体検出方法
CN101739553B (zh) 一种视差图像中目标识别方法
KR20180013982A (ko) 이미지 프로세싱 방법 및 장치
CN102025959B (zh) 从低清晰度视频产生高清晰度视频的系统与方法
CN109583365B (zh) 基于成像模型约束非均匀b样条曲线拟合车道线检测方法
US9762889B2 (en) Subtitle detection for stereoscopic video contents
KR20110032485A (ko) 기하학 기반의 블록 분할 인트라 예측을 이용한 깊이영상 부호화 방법 및 장치
JP5367091B2 (ja) 障害物を分割する方法および装置
CN101036390B (zh) 一种利用可变形网格进行运动估计的方法
CN106991753B (zh) 一种图像二值化方法及装置
CN102521588A (zh) 一种车牌字符分割方法
EP3043315B1 (en) Method and apparatus for generating superpixels for multi-view images
CN114511803A (zh) 一种面向视觉跟踪任务的目标遮挡检测方法
CN110728669B (zh) 一种视频马赛克检测方法
US9380285B2 (en) Stereo image processing method, stereo image processing device and display device
KR20160138847A (ko) 변이 영상 생성 방법 및 장치
EP3076370B1 (en) Method and system for selecting optimum values for parameter set for disparity calculation
KR101512297B1 (ko) 영상의 그라운드 라인 결정 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant