CN1136738C - 一种微型实时立体视觉机 - Google Patents
一种微型实时立体视觉机 Download PDFInfo
- Publication number
- CN1136738C CN1136738C CNB021005478A CN02100547A CN1136738C CN 1136738 C CN1136738 C CN 1136738C CN B021005478 A CNB021005478 A CN B021005478A CN 02100547 A CN02100547 A CN 02100547A CN 1136738 C CN1136738 C CN 1136738C
- Authority
- CN
- China
- Prior art keywords
- image
- real
- depth
- depth map
- stereoscopic vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000000007 visual effect Effects 0.000 title abstract 2
- 230000004438 eyesight Effects 0.000 claims abstract description 58
- 238000004364 calculation method Methods 0.000 claims abstract description 36
- 238000003384 imaging method Methods 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 26
- 238000004891 communication Methods 0.000 claims abstract description 19
- 238000001914 filtration Methods 0.000 claims abstract description 13
- 238000012937 correction Methods 0.000 claims abstract description 6
- 230000015654 memory Effects 0.000 claims description 31
- 238000000034 method Methods 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 9
- 239000004973 liquid crystal related substance Substances 0.000 claims description 8
- 238000007792 addition Methods 0.000 claims description 4
- 238000013144 data compression Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 238000011084 recovery Methods 0.000 abstract description 13
- 230000016776 visual perception Effects 0.000 abstract description 3
- 238000012544 monitoring process Methods 0.000 abstract description 2
- 230000011218 segmentation Effects 0.000 abstract description 2
- 238000012546 transfer Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 6
- 239000000872 buffer Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000004441 surface measurement Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Abstract
一种微型实时立体视觉机,属于机器视觉领域。由立体视觉成像头、立体视觉信息处理器、控制器/通讯接口组成。立体视觉成像头中所有图象传感器同步获取图象,且其摄象机的对角线视场角达140度;立体视觉信息处理器以一片FPGA作为处理芯片,完成图象变形校正、LoG滤波、SSAD计算和子象素级深度计算,实现稠密深度图实时恢复;控制器/通讯接口由DSP和1394通讯芯片组成,用于实现深度图和灰度图象的存储、显示和传输,也用于深度图的高层处理以及依据深度图和灰度图象的控制指令生成。该立体视觉机体积小,运行速度快,视场角大,能实现仿人机器人、自主车辆等系统的视觉感知;也可实现基于深度图的目标分割和跟踪,完成可靠鲁棒的视频监控任务。
Description
技术领域
本发明为一种微型实时立体视觉机,属于机器视觉领域。用于实时恢复、存储和传输场景稠密深度图。
背景技术
立体视觉技术已经在移动机器人、多目标跟踪、三维测量和物体建模等领域得到了广泛的应用。为了解决立体视觉的实时计算问题,人们开发了多种专用的立体视觉并行处理系统,其中基于DSP和基于FPGA的硬件系统是两类应用最为普遍的实时立体视觉系统。1996年美国卡内基-梅隆大学的Kanade等人建立了一套实时五目立体视觉机,系统硬件主要由五个常规镜头摄像机构成的立体视觉成象头、图象获取与数字化VEM板、图象预处理VME板、图象并行计算DSP阵列VME板(8片TMS320C40芯片)和主控计算机组成。系统处理性能达到30MDPS,当图象分辨率为200×200象素,视差搜索范围为25个象素时,深度恢复速度为30帧/秒,这是当时速度最快的立体视觉系统。1999年日本的Kimura等人在Kanade立体视觉机算法的基础上,使用FPGA设计了九目实时立体视觉机SAZAN。该系统由九个摄像机排成的3×3阵列立体成像头、图象数字化和预处理PCI板、FPGA主处理PCI板以及微型计算机组成。系统处理性能达到20MDPS,当图象大小为320×240象素,视差搜索范围30象素时,深度恢复速度为8帧/秒。
现有的立体视觉系统存在如下主要问题:
1.体积较大。现有的立体视觉系统主要是在工作站或微型计算机的控制下运行的,体积较大,很难用于微型系统或微型自主机器人上。
2.立体视场角小。现有的立体视觉系统基本上是采用常规镜头摄像机,视场角较小,由多个摄像机构成的立体视场角更小,一次获取的信息十分有限,另外,这类立体视觉的立体视场盲区较大,无法感知近距离的目标。
3.增加摄像机数量可以减少误匹配,提高稠密深度图恢复精度,但会极大地增加系统计算负担。
发明内容
本发明的目的是提供一种微型实时立体视觉机及实现方法,该立体视觉机体积小、视场角大、运算速度快,可以嵌入在微型机器人或微型系统中,实时高精度地恢复大视场稠密深度图,完成障碍物检测、路径规划等任务。
本发明的另一个目的是提供一种微型实时立体视觉机及实现方法,该立体视觉机配备2个或2个以上的常规镜头摄象机,能高精度恢复静态或运动物体表面稠密深度图,用于完成物体表面形状恢复与测量等任务。
本发明的另一个目的是提供一种微型实时立体视觉机及实现方法,该立体视觉机加上图象存储器、液晶显示屏及控制面板,构成微型深度成像仪。
本发明的另一个目的是提供一种微型实时立体视觉机及实现方法,该立体视觉机通过控制器/通讯接口可以将深度图、灰度图象或彩色图象实时地传输到微型计算机或中央控制计算机中进行高层处理。实现仿人机器人、自主车辆等系统的视觉感知。
本发明所述的微型实时立体视觉机由立体视觉成像头、立体视觉信息处理器、控制器/通讯接口三大部分组成,其特征在于:立体视觉成像头由CMOS成像传感器、图象采集控制器、帧存储器等组成,多个CMOS成像传感器在图象采集控制器的控制下,同步获取场景图象,并将获取的图象存储在帧存储器里。立体视觉信息处理器由一片FPGA和多片存储器组成,对图象进行预处理和稠密深度图并行计算。控制器/通讯接口由基于DSP的控制芯片组件和基于IEEE1394串行通讯芯片组件组成,用于实现深度图和灰度图象的存储、显示和传输,也用于深度图的高层处理以及依据深度图和灰度图象的控制指令生成和传输。
如上所述实时立体视觉机的立体视觉成像头,其特征在于:CMOS成象成像传感器可以配备常规镜头,也可以配备广角镜头或超广角镜头,镜头对角线视场角可以达到140度。
如上所述实时立体视觉机的立体视觉信息处理器,其特征在于:立体视觉信息处理器使用一片大规模FPGA芯片,在FPGA中实现图象变形校正、LoG滤波、数据压缩、数据装配、对立体图象对的对应点求解等并行计算、SAD计算、SSAD计算和快速子象素级深度计算等,实现立体视觉信息的实时处理。
如上所述实时立体视觉机的控制器/通讯接口,其特征在于:基于DSP的控制芯片组件可以完成场景稠密深度图和/或灰度图象的分析和处理,根据处理结果生成控制指令来控制微型机器人驱动器;基于DSP的控制芯片组件也可以驱动液晶显示屏实时显示获取的灰度图象、彩色图象或深度图。基于IEEE1394串行通讯芯片组件将图象实时传输给中央控制器和微型计算机。
本发明提供了一种实用的微型实时立体视觉机及实现方法,本发明具有以下优点:
1.本发明体积小,尺寸可以小到几厘米,可以嵌入在微型机器人中,用于完成场景深度图恢复、障碍物检测和目标定位等任务。
2.本发明运行速度快,当分辨率为320×240象素,视差搜索范围32象素,深度图象精度8位,稠密深度图恢复速度达到30帧/秒;
3.本发明可以配备广角镜头或超广角镜头获取大场景信息,有效地提高感知环境效率。一般来说,超广角镜头的视场角是常规镜头视场角的3至5倍,使用超广角镜头可以感知的场景范围是常规镜头的3至5倍。
4.本发明使用3个或3个以上常规镜头摄像机,在特定光源照明下可以高精度恢复物体表面深度图。在1.5米处,深度测量误差小于0.5毫米,可以满足各类物体表面测量和建模的要求。
5.本发明可以通过IEEE1394串行总线接口实现与中央处理器和中央控制计算机的实时通讯,实现仿人机器人、自主车辆等系统的视觉感知;可以用于恢复监控区域的深度图,实现基于深度图的目标分割和跟踪,完成可靠鲁棒的视频监控任务。
附图说明
图1是本发明的基本组成框图;
图2是本发明的立体视觉成像头的组成框图;
图3是本发明的立体视觉信息处理器的组成框图;
图4是本发明的控制与通讯接口的组成框图;
图5是本发明的SAD计算框图;
图6是SSAD二维迭代计算示意图;
图7是本发明的SSAD计算顺序示意图;
图8是本发明的SSAD值的输出顺序示意图;
图9是本发明的子象素深度计算框图;
图10是本发明构成的微型深度成像仪正面示意图;
图11是本发明构成的微型深度成像仪反面示意图。
图中主要结构为:立体视觉成像头(1);立体视觉信息处理器(2);控制器/通讯接口(3);CMOS图象传感器(4);图象采集控制器(5);帧存储器(6);FPGA(7);LoG存储器(8);水平高斯滤波存储器(9);SSAD存储器(10);深度图存储器(11);深度图象高层处理与传输控制器(12);1394接口(13);LCD接口(14);应用接口(15);微型计算机(16);液晶显示屏(17);微型机器人(18)。
具体实施方式
本发明主要包括立体视觉成像头(1)、立体视觉信息处理器(2)、控制器/通讯接口(3)三大部分,如图1所示。立体视觉信息处理器(2)读取立体视觉成像头(1)获取的同步图象,并将实时恢复的稠密深度图送给控制器/通讯接口(3)。
立体视觉成像头包括2-8个CMOS图象传感器(4)、图象采集控制器(5)和帧存储器(6)。图象传感器(4)所配备的摄像机对角线视场角在30至140度之间选择。图象传感器(4)也可以是CCD图像传感器,CCD图像传感器动态范围大,稳定性好,成像质量高,但成本高。图象采集控制器(5)的作用是控制所有的图像传感器(4)同步采集图象,并将图象存储在帧存储器(6)中,如图2所示。
立体视觉信息处理器(2)实现立体视觉信息的实时处理。它包括一片FPGA(7)、1-7个LoG存储器(8)、水平高斯滤波存储器(9)、SSAD存储器(10)和深度图存储器(11),如图3所示。FPGA(7)实现立体视觉信息实时处理的各个模块:径向变形校正与水平高斯滤波模块,垂直高斯滤波、拉普拉斯运算、数据压缩和数据装配模块,SAD计算、SSAD计算和子象素级深度计算模块。LoG存储器(8)的个数比图象传感器(4)的个数少1,存储压缩并装配后的LoG滤波结果;水平高斯滤波存储器(9)存储水平高斯滤波的计算结果;SSAD存储器(10)缓存SSAD计算的中间结果;深度图存储器(11)存储深度图,如图3所示。
假设立体成象头摄象机数量为k+1(k≥1),图10所示摄像机数量为6(即k=5))。两个摄像机可以构成一个立体成像头,使用多个摄像机构成立体成像头的目的是提高对应点匹配的正确率和深度恢复的精度。将其中一个摄象机定义为基摄象机(base camera),对应的图象为基图象,对应的象素为基象素。我们建立了SAD和SSAD并行优化算法,并建立了多级流水线计算结构。算法的基本步骤如下:
1.对原始图象进行几何变形校正;
2.对校正后的图象进行LoG滤波;
3.进行非线性直方图变换,进一步增强纹理并缩减数据量;
4.将深度搜索范围等分成d段,形成d个候选深度值。在任一候选深度值下,对于基图象中任一象素,在其余k幅图象中求对应点,计算对应点与基象素的灰度值之差值的绝对值之和(SAD值);
5.在基象素某一邻域窗口内对SAD进行累加得到SSAD值(相似性度量);
6.从同一基象素在各个候选视差下的SSAD值中搜索出最小值;
7.通过抛物线插值得到子象素级精度的深度值。
整个算法可分为图象预处理和稠密深度图恢复两个部分。图象预处理由2个模块组成:图象变形校正和水平高斯滤波模块,垂直高斯滤波、拉普拉斯运算、数据压缩和数据装配模块。
采用超广角镜头可以高效率地获取场景信息,但同时也引进了严重的图象畸变。图象变形一般分为径向变形和切向变形,其中径向变形是引起图象变形最主要的因素。本系统只考虑径向变形,校正象素点沿径向发生的位置移动。
使用二维拉普拉斯高斯(Laplacian of Gaussian,LoG)滤波对图象进行预处理,可以减弱图象噪声,增强图象纹理特征,消除立体图象对之间亮度差异对后续匹配的影响。为了便于用硬件并行计算,将LoG滤波分解为二维高斯滤波和拉普拉斯运算,并将二维高斯滤波分解为垂直和水平方向上的两次一维滤波。由于两次一维高斯滤波不可能同时运行,因此可以使用同一个计算模块,只需使用各自的控制模块即可。这样可以极大的减少对FPGA资源的占用。
LoG滤波输出结果的绝大部分值集中在0值附近的很小范围内,如果使用较少的位数来表示这些数据,可以显著减少后续处理所需的数据量,从而减少对系统硬件资源的占用。通过非线性直方图变换,将LoG滤波结果由10位缩减为4位。该变换不但减少了数据量,同时也加大了图象对比度,提高了算法对弱纹理区域的深度恢复能力。
在后续SAD计算过程中,为了精确获取对应位置的子象素级灰度信息,需读取其相邻四个象素值进行双线性插值。为减少其访存次数,可对图象压缩输出的数据流进行装配,使得SAD计算可以一次访存读出所需的4个象素值。由于整个系统的速度瓶颈即在于该模块的访存次数,该数据装配过程可以极大提高系统性能。装配过程如下:对于基图象,按照列的顺序将相邻4列的数据装配在一起;对于其它图象,则将上下左右相邻4个象素值装配在一起。装配后的数据被输出到16位的缓存SRAM中。
稠密深度图恢复由SAD计算、SSAD计算和深度计算模块来实现。
SAD(the Sum of Absolute Difference)计算中首先需要在任一候选深度下,计算基准图象中的任一象素在其它图象中的对应点位置。该过程所需运算量较大,而且涉及到矩阵运算和乘除法运算,用通用微处理器或DSP实现比较费时,用FPGA实现则占用较多的逻辑计算资源。我们建立了对应性求解简易算法,该算法可以直接精确求解对应点,计算速度快,占用的FPGA逻辑资源也很少。
设k+1个摄象机表示为C0,C1,…,Ck,其中C0为基准摄象机,由此可以得到k个图像对。令绝对坐标系与基准摄象机坐标系重合,空间点P(x,y,z)(绝对坐标系)在基准摄象机C0成象平面中的投影p0(u0,v0)(图象坐标系)满足: f0,a0是基准摄象机的内部参数。P(x,y,z)在摄象机Ci(i≠0)坐标系中的坐标表示为pi(xi,yi,zi),其在对应成象平面中的投影pi(ui,vi)满足: 其中f,a,rij,tk表示摄象机Ci的内外部参数。将(2)式代入式(1)得到: 由此得到对应位置求解公式:其中,参数h11,h12,h21,h22,h31,h32与深度无关,参数h13,h23,h33和深度相关。对于指定图象对,由于摄像机内外部参数确定,对应位置的求解只与基准象素位置和候选深度值有关。
式(4)中共有6个加法、6个乘法和2个除法,直接完成这些计算将占用大量的FPGA计算资源。实际上,对一幅图象进行SAD计算时,u0和v0值顺序增大,因此6个乘法器可以用6个累加器代替;另外,当各个摄象机成象平面与基准摄象机成象平面基本平行时(大多数立体视觉系统都属于这种情况),式(4)中的分母
约等于1,且变化范围较小。建立查找表,保存其变化范围内所需精度下所有数的倒数值,可将式(4)中的2个除法转化为2个乘法。这样整个对应坐标求解过程只需要2个乘法和12个加法就可以实现。
对基图象中的一个象素在某一候选深度下的SAD计算过程如下:并行计算它在所有其它图象中对应象素的位置,并行读取并插值计算到子象素级精度象素值,计算AD值,再求和得到SAD值。注意前面的数据装配使得可以一次访存读入对应位置相邻的4个象素值,并插值得到6位精度的子象素级象素值,如图5所示。这样每计算一个SAD值只需一个时钟周期。
SSAD(the Sum of SAD)计算:图6所示的是SSAD二维迭代算法,Ai(i=1~4)为SAD值,Sj(j=1~4)表示以该位置为中心的SSAD值。S4值可以通过如下的二维迭代方式求得:
S4=S2+S3-S1+A1-A2-A3+A4 (5)
设求和窗口为9×9,候选深度32个。式(5)等号右边7项的存储和读取(以任一候选深度为例)如下:将最近9列SAD值保存在缓存BUFF1中,可得到上式中的A1、A2值,将最近9个象素的SAD值保存在缓存BUFF2中,可得到A3值,将最近1列多1个象素的SSAD值保存在缓存BUFF3中,可得S1、S2和S3值,分别存储在三个缓存器中。为确保有足够的BUFF1存取时间,相邻3个SAD值被拼合并一次写入BUFF1,使得有2个时钟的空闲时间以分别读出A1和A2值。当然这要求A1、A2读取时也必须一次取出相邻三个象素值。由于求和窗口大小恰为3的整数倍,因此必可一次读出所需的相邻三个值(若窗口大小不是3的整数倍,则需将连续4象素SAD值拼合,使其有3个空闲时钟以取出全部A1、A2值)。上述过程要求连续计算同一候选深度下相邻3个象素的SSAD值。图7所示的是对BUFF3存取过程,Oi表示缓存的SSAD值,Nj表示当前需要计算的SSAD值。由于需要读出O1~O5这5个SSAD值以实现N1~N3的计算(即要求在3个时钟里取出5个SSAD值),因此使用FPGA内部的两个RAM,分别保存奇数和偶数候选深度下的SSAD值。这使得每个RAM都有连续6个时钟的空闲以读出O1~O5值。这种二维迭代算法可以使用很少的缓存就能实现每个时钟周期计算一个SSAD值。
子象素级深度计算:子象素级深度计算的第一步式提取SSAD曲线的最小值,然后利用抛物线插值实现子象素级精度的最小值定位。由于SSAD计算顺序的约束,SSAD值的输出顺序如图8所示。图中编号表示象素序号,下标表示候选深度序号。由图9可知,同一基象素的32个SSAD值,相互间的输出间隔为2个时钟,其间这2个时钟输出相邻2个象素的SSAD值。因此最小值提取需分3路并行实现。由于对每32个SSAD输入只需执行一次子象素级插值运算,这3路就可以共用一个插值运算模块。3路SSAD最小值输出在时间上相差4个时钟。利用移位寄存器增大各路之间的延迟到8个时钟,以满足插值模块除法器每8个时钟接受一次输入的要求。
除了预处理和深度图恢复的各模块外,还使用了一个管理者模块,用来实现上述各模块间的同步控制。这些模块由于涉及到对外部存储器的互斥访问,任意相邻两个都不可以同时运行。因此使用了一个管理者模块,用来控制相邻模块的互斥运行,并使不相邻的模块能可以流水线方式同时运行,以提高系统的处理性能。
控制器/通讯接口(3)它包括深度图象高层处理与传输控制器(12)、1394接口(13)、LCD接口(14)、应用接口(15)。深度图象高层处理与传输控制器(12)可以是DSP芯片,它可以通过1394接口(13)将深度图、灰度图象和彩色图实时传输给微型计算机(16)中进行高层处理;也可以通过LCD接口(14)控制液晶显示屏(17)显示深度图、灰度图象和彩色图;还可以对图象进行高层处理,产生行动指令,将指令通过应用接口(15)送给微型机器人驱动器(18);如图4所述。
应用举例
图10是由本发明构成的微型深度成像仪正面立体视觉成像头示意图。立体成像头由六个CMOS成像传感器和两个光源组成,每一个光源是由24个大功率红外发光管组成。发光管前增加光栅,在照射物体上会产生条纹或花斑,可以增加无纹理表面的纹理特征,提高求解对应点的可靠性。图11是微型深度成像仪反面液晶显示示意图。液晶显示屏显示的是一个地板上放置的两块岩石的稠密深度图,离摄象机越近,图象越亮。液晶显示屏两边的控制按钮用于控制光源开关、单帧图象获取、连续视频图象显示、连续深度图显示、图象存储、系统初始化等。
Claims (4)
1.一种微型实时立体视觉机,其特征在于:它包括立体视觉成像头(1)、立体视觉信息处理器(2)、控制器/通讯接口(3)三大部分;立体视觉信息处理器(2)读取立体视觉成像头(1)获取的同步图象,并将实时恢复的稠密深度图传输给控制器/通讯接口(3);
立体视觉成像头(1)通过多个图象传感器同步获取场景图象;它包括2-8个图象传感器(4)、图象采集控制器(5)和帧存储器(6);图象传感器(4)所配备的摄像机对角线视场角在30至140度之间选择;图象采集控制器(5)控制各个图象传感器(4)同步采集图象,并将图象数据存储到帧存储器(6)中;
立体视觉信息处理器(2)实现立体视觉信息的实时处理;它包括一片FPGA(7)、1-7个LoG存储器(8)、水平高斯滤波存储器(9)、SSAD存储器(10)和深度图存储器(11);FPGA(7)实现立体视觉信息实时处理的各个模块:径向变形校正与水平高斯滤波模块,垂直高斯滤波、拉普拉斯运算、数据压缩和数据装配模块,SAD计算、SSAD计算和子象素级深度计算模块;LoG存储器(8)的个数比图象传感器(4)的个数少1,存储压缩并装配后的LoG滤波结果;水平高斯滤波存储器(9)存储水平高斯滤波的计算结果;SSAD存储器(10)缓存SSAD计算的中间结果;深度图存储器(11)存储深度图;
SAD计算中的立体图象对的对应位置求解简易算法如下:
设k+1个摄象机表示为C0,C1,…,Ck,其中C0为基准摄象机,由此可以得到k个图像对;令绝对坐标系与基准摄象机坐标系重合,绝对坐标系下的空间点P(x,y,z)在基准摄象机C0成象平面中的投影点在图象坐标系表示为p0(u0,v0),则Ci成象平面上的对应点pi(ui,vi)坐标为其中,
f0,a0是基准摄象机的内部参数,f,a表示摄象机Ci的内部参数,rij,tk表示摄象机Ci的外部参数;对于指定图象对,由于摄像机内外部参数确定,对应位置的求解只与基准象素位置和候选深度值有关;
式(1)中共有6个加法、6个乘法和2个除法,直接完成这些计算将占用大量的FPGA计算资源;实际上,对一幅图象进行SAD计算时,u0和v0值顺序增大,因此6个乘法器可以用6个累加器代替;另外,由于各个摄象机成象平面与基准摄象机成象平面基本平行,则式(1)中的分母
约等于1,且变化范围较小;通过建立查找表,保存其变化范围内所需精度下所有数的倒数值,可将式(1)中的2个除法转化为2个乘法;这样整个对应坐标求解过程只需要2个乘法和12个加法就可以实现;
使用二维迭代算法来实现SSAD计算:Ai(i=1~4)为SAD值,Sj(j=1~4)表示以该位置为中心的SSAD值;S4值可以通过如下的二维迭代方式求得:
S4=S2+S3-S1+A1-A2-A3+A4。 (2)
控制器/通讯接口(3)用于实现图象的高层处理和控制指令生成,也用于图象的实时显示和传输;它包括深度图象高层处理与传输控制器(12)、1394接口(13)、LCD接口(14)、应用接口(15);深度图象高层处理与传输控制器(12)实现对深度图象进一步的高层处理,并与1394接口(13)、LCD接口(14)和应用接口(15)相连。
2.如权利要求1所述的微型实时立体视觉机,其特征在于:可以通过LCD接口(14)实现将深度图实时显示于液晶显示屏(17),构成微型实时深度成像仪。
3.如权利要求1所述的微型实时立体视觉机,其特征在于:可以通过1394接口(13)将灰度图象或彩色图象实时地传输到微型计算机(16)或中央控制计算机中进行高层处理。
4.如权利要求
1所述的微型实时立体视觉机,其特征在于:控制器/通讯接口(3)根据深度图和灰度图象生成行动指令,通过应用接口(15)送给微型机器人驱动器(18)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB021005478A CN1136738C (zh) | 2002-01-31 | 2002-01-31 | 一种微型实时立体视觉机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB021005478A CN1136738C (zh) | 2002-01-31 | 2002-01-31 | 一种微型实时立体视觉机 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1360440A CN1360440A (zh) | 2002-07-24 |
CN1136738C true CN1136738C (zh) | 2004-01-28 |
Family
ID=4739408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB021005478A Expired - Fee Related CN1136738C (zh) | 2002-01-31 | 2002-01-31 | 一种微型实时立体视觉机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN1136738C (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1304931C (zh) * | 2005-01-27 | 2007-03-14 | 北京理工大学 | 一种头戴式立体视觉手势识别装置 |
CN1304878C (zh) * | 2005-02-28 | 2007-03-14 | 北京理工大学 | 复眼立体视觉装置 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10159480B4 (de) * | 2001-12-04 | 2006-05-24 | Daimlerchrysler Ag | Steuervorrichtung |
US6871409B2 (en) * | 2002-12-18 | 2005-03-29 | Snap-On Incorporated | Gradient calculating camera board |
DE102005040901B8 (de) * | 2004-08-31 | 2014-08-14 | Omron Corporation | Sensorsystem |
US20060236375A1 (en) | 2005-04-15 | 2006-10-19 | Tarik Hammadou | Method and system for configurable security and surveillance systems |
CN100419813C (zh) * | 2005-12-28 | 2008-09-17 | 浙江工业大学 | 基于全方位视觉传感器的道路监控装置 |
EP1921867B1 (en) * | 2006-10-17 | 2016-05-25 | Harman Becker Automotive Systems GmbH | Sensor assisted video compression |
US8456517B2 (en) * | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
CN101789124B (zh) * | 2010-02-02 | 2011-12-07 | 浙江大学 | 视频序列的时空一致性分割方法 |
CN102161202B (zh) * | 2010-12-31 | 2012-11-14 | 中国科学院深圳先进技术研究院 | 全景监控机器人系统、监控机器人 |
CN102186012A (zh) * | 2011-03-11 | 2011-09-14 | 上海方诚光电科技有限公司 | 具有1394接口的数字工业相机及其使用方法 |
JP5296847B2 (ja) * | 2011-08-26 | 2013-09-25 | ファナック株式会社 | カメラの異常検出機能を備えたロボットシステム |
CN105306923A (zh) * | 2015-04-02 | 2016-02-03 | 苏州佳像视讯科技有限公司 | 一种大视角3d摄像机 |
CN105068659A (zh) * | 2015-09-01 | 2015-11-18 | 陈科枫 | 一种增强现实系统 |
CN105472226A (zh) * | 2016-01-14 | 2016-04-06 | 苏州佳像视讯科技有限公司 | 一种前后双镜头全景运动摄像机 |
CN109682381B (zh) * | 2019-02-22 | 2020-09-25 | 山东大学 | 基于全向视觉的大视场场景感知方法、系统、介质及设备 |
CN110022420B (zh) * | 2019-03-13 | 2020-09-08 | 华中科技大学 | 一种基于cis的图像扫描系统、方法及存储介质 |
CN110200601B (zh) * | 2019-06-17 | 2022-04-19 | 广东工业大学 | 一种脉象获取装置及系统 |
-
2002
- 2002-01-31 CN CNB021005478A patent/CN1136738C/zh not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1304931C (zh) * | 2005-01-27 | 2007-03-14 | 北京理工大学 | 一种头戴式立体视觉手势识别装置 |
CN1304878C (zh) * | 2005-02-28 | 2007-03-14 | 北京理工大学 | 复眼立体视觉装置 |
Also Published As
Publication number | Publication date |
---|---|
CN1360440A (zh) | 2002-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1136738C (zh) | 一种微型实时立体视觉机 | |
WO2019170164A1 (zh) | 基于深度相机的三维重建方法、装置、设备及存储介质 | |
CN108665496B (zh) | 一种基于深度学习的端到端的语义即时定位与建图方法 | |
CN112700499B (zh) | 一种辐照环境下基于深度学习的视觉定位仿真方法及系统 | |
Fathi et al. | Automated as-built 3D reconstruction of civil infrastructure using computer vision: Achievements, opportunities, and challenges | |
US7194126B2 (en) | Realtime stereo and motion analysis on passive video images using an efficient image-to-image comparison algorithm requiring minimal buffering | |
Chen et al. | Surrounding vehicle detection using an FPGA panoramic camera and deep CNNs | |
US10621446B2 (en) | Handling perspective magnification in optical flow processing | |
CN110969670B (zh) | 基于显著特征的多光谱相机动态立体标定方法 | |
CN110070598B (zh) | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 | |
CN108776989B (zh) | 基于稀疏slam框架的低纹理平面场景重建方法 | |
CN103886107B (zh) | 基于天花板图像信息的机器人定位与地图构建系统 | |
CN113284251B (zh) | 一种自适应视角的级联网络三维重建方法及系统 | |
CN113888639B (zh) | 基于事件相机与深度相机的视觉里程计定位方法及系统 | |
CN111860651B (zh) | 一种基于单目视觉的移动机器人半稠密地图构建方法 | |
CN116129037B (zh) | 视触觉传感器及其三维重建方法、系统、设备及存储介质 | |
CN112183506A (zh) | 一种人体姿态生成方法及其系统 | |
CN108537844A (zh) | 一种融合几何信息的视觉slam回环检测方法 | |
CN112630469B (zh) | 一种基于结构光和多光场相机的三维检测方法 | |
Michalik et al. | Real-time smart stereo camera based on FPGA-SoC | |
CN115330935A (zh) | 一种基于深度学习的三维重建方法及系统 | |
Dong et al. | A 4.29 nJ/pixel stereo depth coprocessor with pixel level pipeline and region optimized semi-global matching for IoT application | |
Praveen | Efficient depth estimation using sparse stereo-vision with other perception techniques | |
Neumann et al. | Eyes from eyes: analysis of camera design using plenoptic video geometry | |
CN107240149A (zh) | 基于图像处理的物体三维模型构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C06 | Publication | ||
PB01 | Publication | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20040128 Termination date: 20140131 |