CN107767407B - 一种基于tof相机的道路车辆目标提取系统及方法 - Google Patents
一种基于tof相机的道路车辆目标提取系统及方法 Download PDFInfo
- Publication number
- CN107767407B CN107767407B CN201610676967.0A CN201610676967A CN107767407B CN 107767407 B CN107767407 B CN 107767407B CN 201610676967 A CN201610676967 A CN 201610676967A CN 107767407 B CN107767407 B CN 107767407B
- Authority
- CN
- China
- Prior art keywords
- data
- intensity data
- irradiation
- array
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种基于TOF相机的道路车辆目标提取系统和方法,该方法包括:步骤1,基于照射点的坐标数据和强度数据做背景建模,生成背景强度数据;步骤2,基于所述背景强度数据,对实时强度数据做阀值分割,生成状态阵列;步骤3,对所述状态阵列进行后处理,确定前景点,完成目标提取。本申请借助TOF相机提供的三维坐标数据和强度数据,可以有效去除因三维坐标数据出现较大误差而引起的目标提取错误的问题,在适用一般场景的前提下还可以有效应对各种极端场景。
Description
技术领域
本发明涉及三维运动目标检测及TOF相机应用技术领域,更具体地,涉及一种基于TOF相机的道路车辆目标提取系统及方法。
背景技术
TOF(Time Of Flight)相机是基于“飞行时间法”测距原理的3D成像仪,包括照射装置和TOF传感器。通常情况下,TOF相机的照射装置为阵列式,即多个子照射源以阵列方式分布(照射阵列),分别向场景内发送经过调制的近红外光,每个子照射源发送的近红外光分别到达场景内一个照射点,传感器接收经由照射点反射的回波,并利用光波发射和反射的时间差或相位差来计算物体到相机的距离,也称为“深度数据”。在场景坐标系下,确切知道相机放置的位置及方位角,即可将每个深度数据换算为三维坐标数据,因而可以认为TOF相机输出了覆盖范围内每个照射点的三维坐标数据。
TOF相机除了提供三维坐标数据外,还可以提供每个照射点对应的反射光强度数据,在一定程度上,每个照射点的强度数据将反映该点三维坐标数据的可信程度。实际应用中,TOF相机三维坐标数据有时会产生错误,因为场景中某些照射点反射的调制光强太弱,使得TOF传感器无法获取正确的三维坐标数据。换言之,在TOF反射光强度数据中,强度小于某一个阀值的照射点,其对应的三维坐标数据就可以认为是不可信的;反之,某个照射点对应的反射光强度越大,说明其三维坐标数据越可靠。
三维探测在计算机视觉领域有着越来越广泛的应用,相比较传统的双目立体相机,TOF相机在三维探测方面有着天然的优势,它无需复杂的算法处理即可获得场景内目标的三维信息,探测精度稳定在厘米级。使用TOF相机进行目标识别传统的方法是使用TOF相机提供的深度数据,将其换算为三维坐标数据,并进行后续的识别算法。但在极端场景下,例如雨雪天或是自然光较强的环境,由于镜面反射、折射、噪声干扰等原因,探测获取到的三维坐标数据出现较大误差。
中国发明专利103116988A披露了基于TOF相机的车流量及车型检测方法,该方法利用TOF相机获取的被测路面的视频图像设置矩形虚拟检测区域,当车辆经过虚拟检测区域时,根据TOF相机提供的距离信息,虚拟检测区域内的距离算术平均值会发生改变。本方法利用距离变化的特点对车流量进行检测;同时利用TOF相机提供的距离信息可以得到车辆的高度,通过判断车辆高度的轮廓线,实现车型的检测。
可以看到,上述方法只使用TOF相机提供的距离数据(可转换为同本专利中的三维坐标数据)进行车辆检测,但在一些极端场景下,例如雨雪天或是自然光较强的环境,由于镜面反射、折射、噪声干扰等原因,探测获取到的三维坐标数据可能出现较大误差,这对后续的车辆检测逻辑将造成很大影响。
发明内容
本发明提供一种克服上述问题或者至少部分地解决上述问题的基于TOF相机的道路车辆目标提取系统及方法。
根据本发明的一个方面,提供一种基于TOF相机的道路车辆目标提取方法,所述方法包括:
步骤1,基于照射点的坐标数据和强度数据做背景建模,生成背景强度数据;
步骤2,基于所述背景强度数据,对实时强度数据做阀值分割,生成状态阵列;
步骤3,对所述状态阵列进行后处理,确定前景点,完成目标提取。
其中,所述步骤1进一步包括:
步骤11,依照每个子照射源在照射阵列中的位置,为每个照射点对应的三维坐标数据以及强度数据赋予序号;
步骤12,以当前帧为起始,综合分析前M帧数据,并以照射点序号为单位,考察每个照射点对应的M个强度数据;
步骤13,取分布最为密集的区域内数据的平均值作为该照射点的背景强度数据,或者找出其中的中位数作为该照射点对应的背景强度数据。
其中,所述步骤2进一步包括:
步骤21,将实时强度数据与所述背景强度数据做差取绝对值,得到绝对偏差阵列;
步骤22,设定分割阈值,绝对偏差阵列中数值大于所述分割阈值的照射点作为前景点,小于等于分割阈值的照射点作为背景点,生成状态阵列。
其中,所述步骤3进一步包括:
步骤31,设置可信阀值,将所述状态阵列中强度数据小于所述可信阈值的点对应的状态位由1置0,并更新所述状态阵列;
步骤32,将更新的所述状态阵列对应到三维坐标数据中,保留状态位为1的照射点三维坐标数据,完成目标提取。
根据本申请的另一方面,提供一种基于TOF相机的道路车辆目标提取系统,包括:
TOF相机及数据分析终端;所述TOF相机的照射装置向场景内发射阵列近红外光,并同步接收回波,获得三维坐标数据与强度数据实;
数据分析终端用于接收TOF相机传输来的三维坐标数据与强度数据,进行分析计算,完成三维运动目标的提取。
其中,所述数据分析终端包括:
背景强度数据生成模块,用于基于照射点的坐标数据和强度数据做背景建模,生成背景强度数据;
状态阵列生成模块,用于基于所述背景强度数据,对实时强度数据做阀值分割,生成状态阵列;
目标提取模块,用于对所述状态阵列进行后处理,确定前景点,完成目标提取。
其中,所述景强度数据生成模块进一步用于:依照每个子照射源在照射阵列中的位置,为每个照射点对应的三维坐标数据以及强度数据赋予序号;以当前帧为起始,综合分析前M帧数据,并以照射点序号为单位,考察每个照射点对应的M个强度数据;取分布最为密集的区域内数据的平均值作为该照射点的背景强度数据,或者找出其中的中位数作为该照射点对应的背景强度数据。
其中,所述状态阵列生成模块进一步用于:将实时强度数据与所述背景强度数据做差取绝对值,得到绝对偏差阵列;设定分割阈值,绝对偏差阵列中数值大于所述分割阈值的照射点作为前景点,小于等于分割阈值的照射点作为背景点,生成状态阵列。
其中,所述目标提取模块进一步用于:设置可信阀值,将所述状态阵列中强度数据小于所述可信阈值的点对应的状态位由1置0,并更新所述状态阵列;将更新的所述状态阵列对应到三维坐标数据中,保留状态位为1的照射点三维坐标数据,完成目标提取。
本发明提供一种三维道路车辆提取方法,借助TOF相机提供的三维坐标数据和强度数据,可以有效去除因三维坐标数据出现较大误差而引起的目标提取错误的问题,在适用一般场景的前提下还可以有效应对上述极端场景。
具体的,在面对三维坐标数据可能出现较大误差的情形下,本发明提供的方法中,两次用到强度数据,首先对强度数据做背景建模,生成“背景强度数据”,并对比实时的强度数据与背景强度数据的差别,其中差距大的照射点被认为是前景点,或者说是车辆目标;其次,因强度数据的大小一定程度上反映了三维坐标数据的可信程度,所以,将强度数据较小的照射点剔除出目标点之外。
附图说明
图1是本发明实施例中所提供的应用场景;
图2是本发明实施例中提供的基于TOF相机的道路车辆目标提取方法的流程图;
图3是本发明实施例2中提供的场景侧视图;
图4是本发明实施例2中提供的场景俯视图;
图5是本发明实施例2中提供的TOF相机强度数据示意图;
图6是本发明实施例2中用到的一个函数示意图;
图7是本发明实施例2中用到的另一个函数示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
总的来说,本发明提供一种基于TOF相机的三维运动目标提取系统及方法,通过对三维坐标数据与强度数据的联合利用,可以有效应对雨雪天或自然光较强等极端场景。
其中,本申请提供一种基于TOF相机的道路车辆目标提取系统,包括:TOF相机及数据分析终端;所述TOF相机的照射装置以频率N向场景内发射阵列近红外光(阵列规格为row行col列),并同步接收回波,将获得的三维坐标数据与强度数据实时地传输到数据分析终端;数据分析终端用于接收TOF相机传输来的三维坐标数据与强度数据,并分析计算,完成三维运动目标的提取。
另外,本申请提供了一种基于TOF相机的道路车辆目标提取方法,包括:对强度数据做背景建模,生成“背景强度数据”;参照“背景强度数据”,对实时强度数据做阀值分割;对“状态阵列”进行后处理,确定前景点。
具体地,图1示出了本发明适用的场景,在道路车行方向的正前方设置TOF相机T。其中,R区域为T的覆盖范围,与T相连接的P为数据分析终端,目标车辆V驶入R区域,T获取实时三维坐标数据与强度数据,并传输给P,P使用本发明提供的方法实现车辆V的三维目标提取。
实施例1
图2示出了本发明实施例提供的基于TOF相机的道路车辆目标提取方法的流程示意图,如图2所示。
S1、对强度数据做背景建模,生成“背景强度数据”。
本实施例中,数据分析终端P每隔1/N秒接收到一帧数据,数据包括row*col个照射点对应的三维坐标数据以及强度数据,依照每个子照射源在照射阵列中的位置,例如,第m行n列,赋予对应照射点以相同的序号,即序号为(m,n)的照射点。同样,将序号(m,n)赋予该照射点所对应的三维坐标数据以及强度数据。
以当前帧为起始,综合分析前M帧数据,并以照射点序号为单位,考察每个照射点对应的M个强度数据,统计出分布最为密集的区域,取区域内数据的平均值作为该照射点的背景强度数据,具体方法见下:
M帧强度数据以下列形式表示:i=0,…,M-1。其中,i=0表示当前帧,Ai表示以当前帧为标的,往前顺延i帧的强度数据集合,每个数据的下标对应着该数据的照射点序号。固定m、n,其中m=1,…,row,n=1,…,col,考察数列进行如下步骤:
S11、对lm,n按从小到大排序,生成顺序数列
S15、取相对邻差数列中的极大值点,且极大值大于U的点的序号组成集合所述极大值点指该点值大于等于前后相邻值,相对邻差数列的首尾元素不在考察范围内,所述U取值应大于等于4,集合的元素个数Num允许为0;
S17、让m遍历1,…,row,n遍历1,…,col,求得
可选地,背景建模还可以采用如下方法,以当前帧为起始,综合分析前M帧数据,并以照射点序号为单位,考察每个照射点对应的M个强度数据,找出其中的中位数,即找到的中位数am,n作为该照射点对应的背景强度数据。
本实施例中,N取正整数,表示TOF相机的发射频率,现阶段,一般在50Hz上下,row以及col取正整数,分别表示TOF相机照射阵列的行和列。
本实施例中,M取值100*N~200*N,“背景建模”每间隔200*N帧数据进行一次,以保证背景的有效性。
本实施例中,寻找分布最密集区作为背景数据的依据是:背景相对于前景是静态的,从而数据较为稳定,即同一照射点不同帧的数据相差较小,只要M帧数据中存在可观的背景数据,即可以完成本实施例的操作,适应性较强。
S2、参照“背景强度数据”,对实时强度数据做阀值分割;
将实时强度数据A0与“背景强度数据”A做差,具体的,以照射点序号为单位对应做差,并取绝对值,得到“绝对偏差阵列”设定分割阀值Div,则D0中,数值大于Div的序号对应的照射点被认为是前景点,小于等于Div的的序号对应的照射点被认为是背景点,并生成“状态阵列”其中前景点状态位设为1,背景点状态位设为0,即
所述分割阀值Div可以通过具体数据观察得到,如200-500,这依赖于一个事实,即前景点和背景点对应的强度数据通常存在明显差异。
S3、对“状态阵列”进行后处理,确定前景点;
基于强度数据在一定意义下可以反映对应三维坐标数据的可信程度,因而参考强度数据对“状态阵列”进行修正,将前景点中不可信的部分去除。考察前景点对应的强度数据,设置可信阀值V,将其中强度数据小于V的点对应的状态位由1置0,并更新生成新的“状态阵列”。因为强度数据与三维坐标数据依照照射点序号一一对应,将生成的“状态阵列”对应到三维坐标数据中,保留状态位为1的照射点三维坐标数据,即完成了目标提取。
本实施例中,可信阀值V的作用是用来去除明显不可信的前景点,其值的设定可以通过对实际获取数据的统计分析,自由度较大,根据实际情况设定,如300-500。
实施例2
实施例1中,步骤S1可以用另一种方式实现,步骤S2、S3保持不变,形成实施例2。
S1、对强度数据做背景建模,生成“背景强度数据”;
本实施例中,数据分析终端P每隔1/N秒接收到一帧数据,数据包括row*col个照射点对应的三维坐标数据以及强度数据,依照每个子照射源在照射阵列中的位置,例如,第m行n列,赋予对应照射点以相同的序号,即,序号为(m,n)的照射点。同样,将序号(m,n)赋予该照射点所对应的三维坐标数据以及强度数据。由于道路场景较为单一,TOF相机在无车场景下获取到的强度数据呈现较强规律性。
在本实施例中,使用的TOF相机,照射阵列为64*16,以斜向下40度方向发射调制阵列光波,如图3为场景侧视图,A点为TOF相机覆盖区域的近端点,B点为TOF相机发射光波的正前方点,C点为TOF相机覆盖区域的远端点,px方向由A指向C,横向用py表示,图4为场景俯视图,图中梯形为TOF相机发射调制光波所覆盖范围,px方向64个点,py方向16个点,其形成的强度数据的大致分布如图5,px方向上中间高,近端远端低,取截面py=8,得到曲线如图6,该曲线可以用下述公式来描述:
py方向上,中间高,两侧低,在任意px确定的情况下,以中间最高处为标准,往两侧线性降低至0.8倍最高值,下降趋势如图7,用下述公式来描述:
则任意点,用序号作为坐标二元组(px,py)对应的强度数据为H*V:(px,py),其中a,b可以根据事先采集到的波形给出,比如,a=10,b=30。
上述公式中,只有base一个未知数,它与场景的具体情况有关,利用实时采集的强度数据估计base的值:
以当前帧为起始,分析前M帧强度数据,考察其中的边界照射点(px=1,px=64,py=1,py=16),以照射点序号为单位,取每个照射点对应的M个强度数据的平均值在base的取值范围内遍历,使得所有边界照射点平均值与H*V|(px,py)距离之和最小,即求解下列最优化问题:
本实施例中,N取正整数,表示TOF相机的发射频率,现阶段,一般在50Hz上下,row以及col取正整数,分别表示TOF相机照射阵列的行和列,本实施例中row=64,col=16。
本实施例中,M取值100*N~200*N,“背景建模”每间隔200*N帧数据进行一次,以保证背景的有效性。
本发明中的实施例通过对三维坐标数据与强度数据的联合利用,可以有效去除因三维坐标数据出现较大误差而引起的目标提取错误的问题,可以有效应对雨雪天或自然光较强等极端场景。
最后,本申请的方案仅为较佳的实施方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于TOF相机的道路车辆目标提取方法,其特征在于,所述方法包括:
步骤1,基于照射点的坐标数据和强度数据做背景建模,生成背景强度数据;
步骤2,基于所述背景强度数据,对实时强度数据做阈值分割,生成状态阵列;
步骤3,对所述状态阵列进行后处理,确定前景点,完成目标提取;
其中,所述步骤2包括:
步骤21,将实时强度数据与所述背景强度数据做差取绝对值,得到绝对偏差阵列;
步骤22,设定分割阈值,绝对偏差阵列中数值大于所述分割阈值的照射点作为前景点,小于等于分割阈值的照射点作为背景点,生成状态阵列;
其中,所述步骤1包括:
步骤11,依照每个子照射源在照射阵列中的位置,为每个照射点对应的三维坐标数据以及强度数据赋予序号;
步骤12,以当前帧为起始,综合分析前M帧数据,并以照射点序号为单位,考察每个照射点对应的M个强度数据;
步骤13,取分布最为密集的区域内数据的平均值作为该照射点的背景强度数据;
其中,所述步骤13包括:
分别按照行列遍历获取背景强度数据
其中,所述m为照射点的行,所述n为照射点的列,固定所述m、n,m=1,…,row,n=1,…,col。
2.根据权利要求1所述的方法,其特征在于,所述步骤3进一步包括:
步骤31,设置可信阈值,将所述状态阵列中强度数据小于所述可信阈值的点对应的状态位由1置0,并更新所述状态阵列;
步骤32,将更新的所述状态阵列对应到三维坐标数据中,保留状态位为1的照射点三维坐标数据,完成目标提取。
3.根据权利要求1所述的方法,其特征在于,N取正整数,表示TOF相机的发射频率,row和col取正整数,分别表示TOF相机照射阵列的行和列;M取值100*N~200*N,背景建模每间隔200*N帧数据进行一次。
5.一种基于TOF相机的道路车辆目标提取系统,其特征在于,包括:
TOF相机及数据分析终端;所述TOF相机的照射装置向场景内发射阵列近红外光,并同步接收回波,获得三维坐标数据与强度数据;
数据分析终端用于接收TOF相机传输来的三维坐标数据与强度数据,进行分析计算,完成三维运动目标的提取;
所述数据分析终端包括:
背景强度数据生成模块,用于基于照射点的坐标数据和强度数据做背景建模,生成背景强度数据;
状态阵列生成模块,用于基于所述背景强度数据,对实时强度数据做阈值分割,生成状态阵列;
所述状态阵列生成模块还用于将实时强度数据与所述背景强度数据做差取绝对值,得到绝对偏差阵列;
所述状态阵列生成模块还用于设定分割阈值,绝对偏差阵列中数值大于所述分割阈值的照射点作为前景点,小于等于分割阈值的照射点作为背景点,生成状态阵列;
目标提取模块,用于对所述状态阵列进行后处理,确定前景点,完成目标提取;
所述背景强度数据生成模块进一步用于:
依照每个子照射源在照射阵列中的位置,为每个照射点对应的三维坐标数据以及强度数据赋予序号;
以当前帧为起始,综合分析前M帧数据,并以照射点序号为单位,考察每个照射点对应的M个强度数据;
取分布最为密集的区域内数据的平均值作为该照射点的背景强度数据;
所述取分布最为密集的区域内数据的平均值作为该照射点的背景强度数据,包括:根据M帧强度数据其中,i=0表示当前帧,Ai表示以当前帧为标的往前顺延i帧的强度数据集合,每个数据的下标对应着该数据的照射点序号;
分别按照行列遍历获取背景强度数据
其中,所述m为照射点的行,所述n为照射点的列,固定所述m、n,m=1,…,row,n=1,…,col。
6.根据权利要求5所述的系统,其特征在于,所述目标提取模块进一步用于:
设置可信阈值,将所述状态阵列中强度数据小于所述可信阈值的点对应的状态位由1置0,并更新所述状态阵列;
将更新的所述状态阵列对应到三维坐标数据中,保留状态位为1的照射点三维坐标数据,完成目标提取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610676967.0A CN107767407B (zh) | 2016-08-16 | 2016-08-16 | 一种基于tof相机的道路车辆目标提取系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610676967.0A CN107767407B (zh) | 2016-08-16 | 2016-08-16 | 一种基于tof相机的道路车辆目标提取系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107767407A CN107767407A (zh) | 2018-03-06 |
CN107767407B true CN107767407B (zh) | 2020-09-22 |
Family
ID=61261101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610676967.0A Active CN107767407B (zh) | 2016-08-16 | 2016-08-16 | 一种基于tof相机的道路车辆目标提取系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107767407B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110942631B (zh) * | 2019-12-02 | 2020-10-27 | 北京深测科技有限公司 | 一种基于飞行时间相机的交通信号控制方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011054971A2 (en) * | 2009-11-09 | 2011-05-12 | Alpha Vision Design Research Ltd. | Method and system for detecting the movement of objects |
CN102316307A (zh) * | 2011-08-22 | 2012-01-11 | 安防科技(中国)有限公司 | 一种道路交通视频检测方法及装置 |
US8187097B1 (en) * | 2008-06-04 | 2012-05-29 | Zhang Evan Y W | Measurement and segment of participant's motion in game play |
CN103020595A (zh) * | 2012-12-05 | 2013-04-03 | 汤烈 | 基于三维飞行时间法成像的农作物-杂草识别及定位方法 |
CN103116988A (zh) * | 2013-01-18 | 2013-05-22 | 合肥工业大学 | 基于tof相机的车流量及车型检测方法 |
CN104182742A (zh) * | 2013-05-20 | 2014-12-03 | 比亚迪股份有限公司 | 头部姿态识别方法及系统 |
CN104463146A (zh) * | 2014-12-30 | 2015-03-25 | 华南师范大学 | 基于近红外tof相机深度信息的姿势识别方法和装置 |
-
2016
- 2016-08-16 CN CN201610676967.0A patent/CN107767407B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8187097B1 (en) * | 2008-06-04 | 2012-05-29 | Zhang Evan Y W | Measurement and segment of participant's motion in game play |
WO2011054971A2 (en) * | 2009-11-09 | 2011-05-12 | Alpha Vision Design Research Ltd. | Method and system for detecting the movement of objects |
CN102316307A (zh) * | 2011-08-22 | 2012-01-11 | 安防科技(中国)有限公司 | 一种道路交通视频检测方法及装置 |
CN103020595A (zh) * | 2012-12-05 | 2013-04-03 | 汤烈 | 基于三维飞行时间法成像的农作物-杂草识别及定位方法 |
CN103116988A (zh) * | 2013-01-18 | 2013-05-22 | 合肥工业大学 | 基于tof相机的车流量及车型检测方法 |
CN104182742A (zh) * | 2013-05-20 | 2014-12-03 | 比亚迪股份有限公司 | 头部姿态识别方法及系统 |
CN104463146A (zh) * | 2014-12-30 | 2015-03-25 | 华南师范大学 | 基于近红外tof相机深度信息的姿势识别方法和装置 |
Non-Patent Citations (1)
Title |
---|
融合颜色信息与深度信息的运动目标检测方法;胡良梅 等;《电子与信息学报》;20140930;第2047-2052页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107767407A (zh) | 2018-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102538645B1 (ko) | 편광을 사용한 센서 시스템 및 이미징 시스템의 증강 시스템 및 방법 | |
JP7361682B2 (ja) | 3d・lidar測定に基づく、多重解像度、同時位置特定、及びマッピング | |
CN109949372B (zh) | 一种激光雷达与视觉联合标定方法 | |
JP5503578B2 (ja) | 物体検出装置及び物体検出方法 | |
Singh et al. | Bigbird: A large-scale 3d database of object instances | |
US8867790B2 (en) | Object detection device, object detection method, and program | |
US9392262B2 (en) | System and method for 3D reconstruction using multiple multi-channel cameras | |
EP2959456B1 (en) | Real time stereo matching | |
CN109791696A (zh) | 利用事件摄像机同时进行定位和映射 | |
US20140253679A1 (en) | Depth measurement quality enhancement | |
US10984263B2 (en) | Detection and validation of objects from sequential images of a camera by using homographies | |
CN109816697B (zh) | 一种无人模型车建立地图的系统及方法 | |
CN113888458A (zh) | 用于对象检测的方法和系统 | |
JP2016009474A (ja) | 物体識別システム、情報処理装置、情報処理方法及びプログラム | |
CN111507340B (zh) | 一种基于三维点云数据的目标点云数据提取方法 | |
US9217670B2 (en) | Object recognition apparatus using spectrometer and method thereof | |
US11087150B2 (en) | Detection and validation of objects from sequential images of a camera by using homographies | |
CN107767407B (zh) | 一种基于tof相机的道路车辆目标提取系统及方法 | |
KR100588296B1 (ko) | 신호 분리 코딩 및 에러 정정을 통한 구조 광 기반의 3차원거리 영상 측정 방법 및 시스템 | |
Gheţa et al. | A new approach for estimating depth by fusing stereo and defocus information | |
Kaczmarek | Stereo camera upgraded to equal baseline multiple camera set (EBMCS) | |
US20210329219A1 (en) | Transfer of additional information among camera systems | |
CN107610170B (zh) | 多目图像重聚焦的深度获取方法及系统 | |
CN112395956A (zh) | 一种面向复杂环境的可通行区域检测方法及系统 | |
CN111373222A (zh) | 光投射系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20221117 Address after: Room 601, 6th Floor, Building B, Building 9, Start Zone, Yangtze River Delta International R&D Community, No. 286, Qinglonggang Road, High-speed Rail New Town, Xiangcheng District, Suzhou City, Jiangsu Province, 215131 Patentee after: Suzhou Wanji IoV Technology Co.,Ltd. Address before: 100085 No. 5, building 1, East Road, Haidian District, Beijing, 601 Patentee before: BEIJING WANJI TECHNOLOGY Co.,Ltd. |