CN108076338A - 图像视觉处理方法、装置及设备 - Google Patents
图像视觉处理方法、装置及设备 Download PDFInfo
- Publication number
- CN108076338A CN108076338A CN201611033320.2A CN201611033320A CN108076338A CN 108076338 A CN108076338 A CN 108076338A CN 201611033320 A CN201611033320 A CN 201611033320A CN 108076338 A CN108076338 A CN 108076338A
- Authority
- CN
- China
- Prior art keywords
- pixel
- event
- field picture
- event pixel
- binocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
Abstract
本发明实施例提供了图像视觉处理方法、装置及设备,所述方法包括:确定出通过动态视觉传感器DVS获取的双目帧图像中每个事件像素点的视差和深度信息;确定出双目帧图像中每个非事件像素点的多个邻居事件像素点;根据每个非事件像素点的各邻居事件像素点的位置信息,确定出该非事件像素点的深度信息;根据双目帧图像中各像素点的深度信息,进行相应处理。利用本发明实施例,无需非事件像素点参与像素点的匹配,即使非事件像素点之间的光照强度、对比度和纹理难以区分,或者被遮挡,也可利用近邻的事件像素点的位置信息,较为精确地确定出非事件像素点的深度信息,提升非事件像素点深度信息的精度。
Description
技术领域
本发明涉及图像处理技术领域,具体而言,本发明涉及一种图像视觉处理方法、装置及设备。
背景技术
动态视觉传感器(Dynamic Vision Sensor,DVS)是一种新型的互补金属氧化物半导体(Complementary Metal Oxide Semiconductor,CMOS)图像传感器。与传统的CMOS或电荷耦合元件(Charge-coupled Device,CCD)传感器生成的图像不同,DVS可以根据场景光照变化强度大小而产生事件,即将光照强度变化使得对比度变化超过设定阈值的像素点作为事件像素点,将对比度变化未超过设定阈值的像素点作为非事件像素点,从而生成DVS图像。
在对象识别、场景三维建模、图像渲染、立体电视、辅助驾驶等应用中,广泛应用基于双目DVS图像的图像视觉处理方法。
现有的图像视觉处理方法,通常需要获取双目DVS帧图像(简称双目帧图像),包括:利用左目DVS摄像头拍摄并生成的左目帧图像,及利用右目DVS摄像头拍摄并生成的右目帧图像;确定出双目帧图像中左目帧图像的像素点与右目帧图像中相匹配的像素点之间的视差,根据确定出的视差,确定出相匹配的像素点的深度信息。其中,主要利用基于局部特征相似性、非局部特征相似性或全局特征相似性的帧图像匹配技术来确定左目帧图像与右目帧图像的像素点之间的视差。
然而,本发明的发明人发现,DVS产生的事件像素点具有数量少(即稀疏)、左右DVS摄像头产生的事件像素点分布和数量不一致等特点。因此,左目帧图像和右目帧图像中大部分区域的像素点都是非事件像素点。
一方面,由于非事件像素点的对比度变化较小,尤其遇到光照强度较大(例如逆光)或较弱的场景(例如夜间或昏暗的室内),非事件像素点之间的对比度差异较小,非事件像素点之间难以区分,利用现有的图像视觉处理方法,在左、右目帧图像的非事件像素点与非事件像素点之间、或者事件像素点与非事件像素点之间进行匹配时,非常容易出现误匹配;另一方面,当帧图像中存在重复的纹理结构时,例如棋盘格纹理,由于纹理的重复性,使得一目帧图像中的非事件像素点在另一目帧图像中存在多个可匹配的像素点,非常容易出现误匹配。毫无疑问,根据误匹配的非事件像素点确定出的深度信息是错误的,该非事件像素点很可能成为噪点,大大降低了整个帧图像的像素点的深度信息的精度。给后续基于帧图像的像素点的深度信息的处理操作造成不良影响,甚至导致后续基于像素点深度信息的相应处理操作失败。
此外,由于现有的图像视觉处理方法,需要双目帧图像中的像素点匹配后,才能计算相匹配的像素点的视差和深度信息。然而,由于某些场景(例如近景拍摄、微距拍摄)中不同拍摄对象之间的遮挡,导致双目帧图像之间不完全一致,即一目帧图像中的某些非事件像素点在另一目帧图像中并不存在可匹配的像素点,利用现有的图像视觉处理方法,无法确定出这些无法匹配的非事件像素点的深度信息,这些非事件像素点很可能成为噪点,大大降低了整个帧图像的像素点的深度信息的精度。给后续基于帧图像的像素点的深度信息的处理操作造成不良影响,甚至导致基于像素点深度信息的相应处理操作失败。
发明内容
本发明针对现有方式的缺点,提出一种图像视觉处理方法、装置及设备,用以解决现有技术存在非事件像素点的深度信息精度低下的问题,以提升非事件像素点的深度信息的精度。
本发明的实施例根据第一个方面,提供了一种图像视觉处理方法,包括:
确定出通过动态视觉传感器DVS获取的双目帧图像中每个事件像素点的视差和深度信息;
确定出所述双目帧图像中每个非事件像素点的多个邻居事件像素点;
根据每个非事件像素点的各邻居事件像素点的位置信息,确定出该非事件像素点的深度信息;
根据所述双目帧图像中各像素点的深度信息,进行相应处理。
本发明的实施例根据第二个方面,还提供了一种图像视觉处理装置,包括:
事件像素点深度确定模块,用于确定出通过动态视觉传感器获取的双目帧图像中每个事件像素点的视差和深度信息;
邻居事件像素点确定模块,用于确定出所述双目帧图像中每个非事件像素点的多个邻居事件像素点;
非事件像素点深度确定模块,用于根据每个非事件像素点的各邻居事件像素点的位置信息,确定出该非事件像素点的深度信息;
基于像素深度处理模块,用于根据所述双目帧图像中各像素点的深度信息,进行相应处理。
本发明的实施例根据第三个方面,还提供了一种图像视觉处理设备,包括:
动态视觉传感器DVS摄像头,用于拍摄获取双目帧图像;
本发明实施例第二方面的图像视觉处理装置,用于对所述双目帧图像进行视觉处理,得到所述双目帧图像中各像素点的深度信息并进行相应处理。
本发明实施例中,占据帧图像大部分区域的非事件像素点的深度信息,是通过其多个邻居事件像素点的位置信息确定出的,非事件像素点不参与像素点的匹配,完全避免了现有技术中非事件像素点容易误匹配或者无法匹配的问题;即使非事件像素点之间的光照强度、对比度和纹理难以区分,或者被遮挡,本发明实施例也可利用与非事件像素点近邻的事件像素点的位置信息,较为精确地确定出非事件像素点的深度信息,提升了占据帧图像大部分区域的非事件像素点的深度信息的精度,整体上提升了帧图像的像素点的深度信息的精度,便于后续开展基于帧图像像素点的深度信息的操作。而且,本发明实施例中,节省了计算非事件像素点的视差的步骤,提升了效率。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例的图像视觉处理方法的流程示意图;
图2为本发明实施例的双目帧图像的降噪方法的去噪效果的一个实例的示意图;
图3为本发明实施例的确定出非事件像素点的各邻居事件像素点子集的一个实例的示意图;
图4为本发明实施例的一个特例的技术效果展示示意图;
图5为本发明实施例的图像视觉处理装置的内部结构的框架示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
本技术领域技术人员可以理解,这里所使用的“终端”、“终端设备”既包括无线信号接收器的设备,其仅具备无发射能力的无线信号接收器的设备,又包括接收和发射硬件的设备,其具有能够在双向通信链路上,进行双向通信的接收和发射硬件的设备。这种设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备;PCS(Personal Communications Service,个人通信系统),其可以组合语音、数据处理、传真和/或数据通信能力;PDA(Personal Digital Assistant,个人数字助理),其可以包括射频接收器、寻呼机、互联网/内联网访问、网络浏览器、记事本、日历和/或GPS(Global Positioning System,全球定位系统)接收器;常规膝上型和/或掌上型计算机或其他设备,其具有和/或包括射频接收器的常规膝上型和/或掌上型计算机或其他设备。这里所使用的“终端”、“终端设备”可以是便携式、可运输、安装在交通工具(航空、海运和/或陆地)中的,或者适合于和/或配置为在本地运行,和/或以分布形式,运行在地球和/或空间的任何其他位置运行。这里所使用的“终端”、“终端设备”还可以是通信终端、上网终端、音乐/视频播放终端,例如可以是PDA、MID(Mobile Internet Device,移动互联网设备)和/或具有音乐/视频播放功能的移动电话,也可以是智能电视、机顶盒等设备。
本发明实施例中,确定出通过两个动态视觉传感器获取的双目帧图像中每个事件像素点的视差和深度信息;事件像素点为对比度变化绝对值超过设定阈值的像素点;确定出双目帧图像中每个非事件像素点的多个邻居事件像素点;根据每个非事件像素点的各邻居事件像素点的位置信息,确定出该非事件像素点的深度信息;根据双目帧图像中各像素点的深度信息,进行相应处理。可见,本发明实施例中,占据帧图像大部分区域的非事件像素点的深度信息,是通过其多个邻居事件像素点的位置信息确定出的,非事件像素点不参与像素点的匹配,完全避免了现有技术中非事件像素点容易误匹配或者无法匹配的问题;即使非事件像素点之间的光照强度、对比度和纹理难以区分,本发明实施例也可利用与非事件像素点近邻的事件像素点的位置信息,较为精确地确定出非事件像素点的深度信息,提升了占据帧图像大部分区域的非事件像素点的深度信息的精度,整体上提升了帧图像的像素点的深度信息的精度,便于后续开展基于帧图像像素点的深度信息的操作。而且,本发明实施例中,节省了计算非事件像素点的视差的步骤,提升了效率。
下面结合附图具体介绍本发明实施例的技术方案。
本发明实施例中的图像视觉处理设备包括:动态视觉传感器DVS摄像头和图像视觉处理装置。
其中,DVS摄像头中包括两个摄像头和DVS(Dynamic Vision Sensor,DVS,动态视觉传感器),其功能主要是拍摄并处理得到双目DVS帧图像。为便于理解,本文后续将DVS帧图像,简称为帧图像。
较佳地,可以采用多种方式将两个摄像头设置在图像视觉处理设备中。例如,将两个摄像头左右设置、上下设置、或沿对角线设置等等。
以左右设置的两个摄像头为例,动态视觉传感器可以处理得到左目帧图像、右目帧图像,构成双目帧图像。
本发明实施例中的图像视觉处理装置的主要功能包括:对双目帧图像进行视觉处理,得到双目帧图像中各像素点的深度信息并进行相应处理;具体细节将在后续详述,此处不再赘述。
本发明实施例提供了一种图像视觉处理方法,该方法的流程示意图如图1所示,包括下述步骤S101-S104:
S101:确定出通过两个动态视觉传感器获取的双目帧图像中每个事件像素点的视差和深度信息。
本发明实施例中,对于动态视觉传感器分别处理得到一目帧图像和另一帧图像构成的双目帧图像,将双目帧图像中对比度变化绝对值超过设定阈值的像素点作为事件像素点,将对比度变化绝对值未超过设定阈值的像素点作为非事件像素点。
较佳地,事件像素点在帧图像中具体表现为白色的点;而非事件像素点在帧图像中具体表现为黑色的点。
本发明的发明人注意到,动态视觉传感器直接处理产生的双目帧图像中包含较多的噪点。较佳地,本发明实施例提供了双目帧图像的降噪方法。
具体地,本发明的发明人经过研究发现,动态视觉传感器所产生的帧图像具有一定的特点。通常而言,事件像素点的产生是根据光照强度变化而产生,因此事件像素点通常分布在场景对象的轮廓或边界周围,分布相对较为规则,因此相对整张帧图像而言,属于帧图像的低频成分;分布较散的事件像素点,属于帧图像的高频成分,通常可以被视为噪声。基于该特点,利用傅里叶变换,得到帧图像的高频成分和低频成分。将高频成分去除,然后反傅里叶变换恢复原图像,则可以去除噪声。
例如,设I为帧图像的数据,I0为帧图像的低频成分,I1为帧图像的高频成分,则I可以由下述公式(1)表示成展开后的多个频率的项:
上述公式(1)中,Rx[i]表示实数部分的系数,Ix[i]表示虚数部分的系数,N表示项数。2πki/N表示频率的大小。可以看出,i越大,则频率越高,反则越小。因此,当i大于预先设定的阈值时,该i所在项可以视为高频成分。将高频成分的Rx[i]和Ix[i]置为零,则去除了帧图像的高频成分。
高频系数和低频系数可以由下述公式(2)和(3)分别计算得到:
上述公式(2)和(3)中,x[i]表示第i个像素的灰度值。
附图2为本发明实施例的双目帧图像的降噪方法的去噪效果的一个实例的示意图;图2左边部分的图像为降噪前的DVS帧图像,容易看出降噪之前,帧图像的人体轮廓范围内、以及在人体轮廓外的大面积黑色背景中,存在大量的白色噪声点;图2右边部分的图像为降噪后的同一DVS帧图像,容易看出降噪后,帧图像的人体轮廓范围内、以及在人体轮廓外的大面积黑色背景中的白色噪声点基本被去除,大大降低噪声引起的干扰。
对于未经过降噪或经过降噪的双目帧图像,根据双目帧图像中每个像素点及与其最接近的事件像素点,确定出该像素点的特征值。
具体地,对于双目帧图像中每一目帧图像中的每个像素点,确定出该目帧图像中与该像素点最接近的对比度增大、和减小的事件像素点。
较佳地,根据双目帧图像中每一目帧图像中对比度增大、减小的事件像素点,分别构建该目帧图像的正、负极性事件图像。
将每一目帧图像中的对比度减小的事件像素点都作为非事件像素点,构建该目帧图像的正极性事件图像。例如,将每一目帧图像中所有对比度减小的事件像素点,都从白色的点改为黑色的点;同时,保持非事件像素点仍然为黑色的点,所有对比度增大的事件像素点仍然为白色的点;从而得到该目帧图像的正极性事件图像。
同理,将每一目帧图像中的对比度增大的事件像素点都作为非事件像素点,构建该目帧图像的负极性事件图像。
对于每一目帧图像中每个像素点,确定出该目帧图像的正、负极性事件图像中与该像素点最接近的事件像素点。确定出该像素点与最接近的对比度增大、和减小的事件像素点的欧式距离,作为该像素点的正、负极欧式距离。
较佳地,对于每一目帧图像中每个像素点,确定出该像素点与正、负极性事件图像中最接近的事件像素点的欧式距离,作为该像素点的正、负极欧式距离。
例如,每目帧图像转换成正极性事件图像后,该目帧图像中每个像素点的位置不变。利用欧式距离变换(distance transform)方法,对输入的DVS帧图像进行变换,求得正极性事件图像中每个像素点到其最近的事件像素点的欧式距离,如下述公式(4)所示:
上述公式(4)中,Dp(x,y)表示像素点(x,y)和其最近邻的事件像素点(x',y')的欧式距离,Dp(x,y)中的上标p为positive的缩写,表示正极性。从而得到每一目帧图像中每个像素点,与正极性事件图像中最接近的事件像素点的欧式距离,作为该像素点的正极欧式距离。
同理,可以根据下述公式(5)得到每一目帧图像中每个像素点,与负极性事件图像中最接近的事件像素点的欧式距离,作为该像素点的负极欧式距离。
上述公式(5)中,Dn(x,y)中的上标n为negative的缩写,表示负极性。
确定出每目帧图像中每个像素点的正、负极欧式距离后,根据该像素点的正、负极欧式距离,确定出该像素点的特征值。
较佳地,将每个像素点的正极欧式距离、和负极欧式距离,分别作为两个特征元素,构成该像素点的特征值。
确定出双目帧图像中每个像素点的特征值后,根据该像素点的特征值,确定出该像素点的代价矩阵。
具体地,对于双目帧图像的一目帧图像中的一个像素点,确定出另一目帧图像中与该像素点具有相同的指定轴坐标的邻域内的多个其它像素点。
较佳地,相同的指定轴坐标可以是相同的横轴坐标或相同的纵轴坐标。
较佳地,以左右目帧图像为例,对于双目帧图像的左(或右)目帧图像中的一个像素点,确定出右(或左)目帧图像中与该像素点具有相同纵坐标的邻域内的多个其它像素点。
根据该像素点与多个其它像素点的特征值中的正极欧式距离之间、负极欧式距离之间的差值,确定出该像素点的正、负极特征匹配代价。
例如,以左右目帧图像为例,可以根据如下公式(6)确定出每个像素点的正极特征匹配代价
上述公式6中,(x,y)表示一目帧图像中像素点的坐标,(x+d,y)表示另一目帧图像中其它像素点的坐标,d表示该像素点与其它像素点的横坐标差值;W表示另一目帧图像中具有y纵坐标的像素点的邻域,本领域技术人员可以根据实验数据、经验数据、历史数据和/或实际情况确定该邻域的大小,例如将邻域设置为以具有y纵坐标的像素点为中心的3╳3的像素块的范围;m为1至M,M为上述领域中的像素点的个数;当d发生遍历性的大小变化时,表示实际上将另一目帧图像中具有y纵坐标的像素点的邻域中所有像素点进行了遍历计算。
同理,可以根据下述公式(7),确定出每个像素点的负极特征匹配代价
对邻域中所有像素点进行遍历计算,求得特征匹配代价,有利于提升本发明实施例中像素点匹配时的抗干扰性和鲁棒性。
例如,当双摄像头拍摄时的位置不是关于拍摄目标左右对称时,导致与一个像素点相匹配的其它像素点可能偏左或者偏右,利用邻域内遍历的方法可以将偏左或偏右的匹配像素点覆盖在内。
再如,当双摄像头拍摄时的位置不是严格的处于同一水平时,导致与一个像素点相匹配的其它像素点可能偏上或偏下,利用邻域内遍历的方法可以将偏上或偏下的匹配像素点覆盖在内。
因此,本发明实施例采用的特征匹配代价的计算方法,有利于提升双目帧图像中像素点的匹配精度,从而有利于整体上提升确定像素点的深度信息的精度。
对于每帧图像中的每个像素点,根据该像素点与多个其它像素点之间的对比度极性的差值,确定该像素点的极性匹配代价。
具体地,确定出每帧图像中每个像素点的对比度极性。例如,将每帧图像中的非事件像素点的对比度极性设置为0,将对比度增大的事件像素点的对比度极性设置为1,将对比度减小的事件像素点的对比度极性设置为-1。之后,根据每个像素点与多个其它像素点之间的对比度极性的差值,确定该像素点的极性匹配代价。
例如,以左右目帧图像为例,可以利用下述公式(8)确定出每帧图像中每个像素点的极性匹配代价CP(x,y,d):
CP(x,y,d)=||E(x+d,y)-E(x,y)||………………(公式8)
上述公式(8)中(x,y)表示一目帧图像中像素点的坐标,(x+d,y)表示另一目帧图像中其它像素点的坐标,d表示该像素点与其它像素点的横坐标差值;E表示对比度极性。
确定出每帧图像中每个像素点的正、负极特征匹配代价和极性匹配代价后,根据该像素点的正、负极特征匹配代价和极性匹配代价,确定出该像素点的代价矩阵。
例如,以左右目帧图像为例,可以根据下述公式(9)确定出每帧图像中每个像素点的代价矩阵。
上述公式(9)中,α表示权重,其为大于0且小于1的实数。
确定出每帧图像的各像素点的代价矩阵后,根据各像素点的代价矩阵中每个事件像素点的代价矩阵,确定出该事件像素点的视差。
具体地,对于每目帧图像中的每个事件像素点,对该事件像素点的代价矩阵的代价值进行最小化,得到该事件像素点基于该目帧图像的视差。
对于具有相同的指定轴坐标的两个事件像素点中的一个事件像素点,当该事件像素点基于一个目帧图像的视差与另一个事件像素点基于另一个目帧图像的视差相等时,将基于一个目帧图像的视差作为该事件像素点的视差。
例如,以左右目帧图像为例,根据每个事件像素点的代价矩阵,利用贪心策略算法胜者为王(winner take all),分别为左右目帧图像,计算每个事件像素点的视差:
对于左目帧图像中的事件像素点(x,y),确定出当其代价矩阵Cl(x,y,d)的达到最小值时的d,作为左目帧图像中该事件像素点的视差dl(x,y)。其中,l是left的缩写,表示左目。
同理,对于右目帧图像中的事件像素点(x,y),确定出当其代价矩阵Cr(x,y,d)的达到最小值时的d,作为右目帧图像中的事件像素点的视差dr(x,y)。其中,r是right的缩写,表示右目。
然后,根据下述公式(10)进行左右目图像视差交叉验证,去除不鲁棒视差事件像素点:
上述公式(12)中,dr(x+j,y)中的j表示使得dl(x,y)与dr(x+j,y)相等时的两个像素点的横坐标差值;对于左目帧图像中的一个事件像素点(x,y),当右目帧图像中存在具有相同纵坐标的像素点的视差dr(x+j,y),与左目帧图像中该事件像素点的视差dl(x,y)相等时,保留左目帧图像中该事件像素点的视差;当右目帧图像中具有相同纵坐标的像素点的视差dr(x+j,y),都与左目帧图像中该事件像素点的视差dl(x,y)不相等时,剔除左目帧图像中该事件像素点的视差。
根据动态视觉传感器摄像头的焦距和间距、以及每个事件像素点的视差,确定出该事件像素点的深度信息。
具体地,根据动态视觉传感器摄像头中两个摄像头的焦距f和间距B、以及每个事件像素点的视差d,确定出该事件像素点的深度值Z=fB/d。
S102:确定出双目帧图像中每个非事件像素点的多个邻居事件像素点。
以双目帧图像中一目帧图像的每个非事件像素点为坐标原点,沿一个坐标轴的两侧方向,由近及远,分别搜索到最近的两个事件像素点,作为该非事件像素点沿一个坐标轴两侧方向的两个邻居事件像素点。
根据每个非事件像素点沿一个坐标轴两侧方向的两个邻居事件像素点,确定出该非事件像素点沿另一个坐标轴两侧方向的邻居事件像素点的搜索范围。其中,一个坐标轴与另一个坐标轴相垂直。
较佳地,根据两个邻居事件像素点在一个坐标轴上的坐标,确定出另一个坐标轴两侧方向上待搜索的事件像素点在一个坐标轴上的坐标范围,作为搜索范围。
从搜索范围中搜索到事件像素点,得到该非事件像素点沿另一个坐标轴两侧方向的邻居事件像素点子集。
较佳地,沿另一个坐标轴每侧方向,由近及远,分别搜索最近的事件像素点。
每搜索到一个事件像素点,判断该事件像素点在一个坐标轴上的坐标是否处于搜索范围内;若是,则将该事件像素点作为在另一个坐标轴该方向上的邻居事件像素点,从而得到该非事件像素点在另一个坐标轴该方向上的邻居事件像素点子集。
例如,如图3中的(a)部分至(f)部分示出了确定出非事件像素点的各邻居事件像素点子集的一个实例的过程。图3中的(a)部分表示DVS处理之前预览得到的图像,该图像中包括了待拍摄的目标对象。图3中的(b)部分中的A点表示DVS帧图像中的一个非事件像素点,B点和C点分别表示事件像素点。横轴(X轴)为一个坐标轴,一个坐标轴的两侧方向分别为上侧和下侧;纵轴(Y轴)为另一个坐标轴,另一个坐标轴的两侧方向为左侧和右侧。
如图3中的(c)部分所示,以非事件像素点A点为坐标原点,分别沿横轴(X轴)的上侧、下侧的方向分别搜索到距离A点最近的事件像素点B点、C点作为沿纵轴上侧和下侧的两个邻居事件像素点;将B点和C点的纵坐标分别作为纵坐标上限、和下限,得到纵轴(Y轴)两侧方向上(即纵轴的左侧和右侧)待搜索的邻居事件像素点的纵坐标范围,作为纵轴左右侧的搜索范围;沿纵轴左侧搜索距离A点最近的事件像素点;每搜索到一个事件像素点,判断该事件像素点的纵坐标是否处于上述纵坐标范围(即搜索范围)内;若是,则将该事件像素点作为在纵轴左侧的邻居事件像素点;该非事件像素点在纵轴左侧的所有邻居事件像素点,构成该非事件像素点在左侧的邻居事件像素点子集。
进一步,如图3中的(C)部分所示,以非事件像素点A点为坐标原点,分别沿横轴(X轴)的上侧、下侧的方向分别搜索到距离A点最近的事件像素点B点、C点作为沿纵轴上侧和下侧的两个邻居事件像素点;将B点和C点分别投影到纵轴上,构成包含A点的线段的两个端点,该线段即为纵轴两侧方向上待搜索的事件像素点的搜索范围;沿纵轴左侧搜索距离A点最近的事件像素点;每搜索到一个事件像素点,将该事件像素点投影到纵轴上,判断该事件像素点在纵轴上的投影点是否位于上述线段范围内;若是,则将该事件像素点作为在纵轴左侧的邻居事件像素点;该非事件像素点在纵轴左侧的所有邻居事件像素点,构成该非事件像素点在左侧的邻居事件像素点子集。
同理,如图3中的(d)、(e)和(f)部分所示,分别得到非事件像素点在右侧、上侧和下侧的邻居事件像素点子集。
根据各坐标轴各侧方向的邻居事件像素点子集,确定出该非事件像素点的邻居事件像素点集合。
较佳地,将该非事件像素点在各坐标轴各侧方向上的邻居事件像素点子集合并后,去除重复的邻居事件像素点,得到该非事件像素点的邻居事件像素点集合。
S103:根据每个非事件像素点的各邻居事件像素点的位置信息,确定出该非事件像素点的深度信息。
对于每目帧图像中每个非事件像素点,根据每个非事件像素点的邻居事件像素点集合中各邻居事件像素点到假定平面的距离和,确定出用于标识假定平面的参数。
根据用于标识假定平面的参数和每个非事件像素点的平面坐标,确定出该非事件像素点的深度信息。
较佳地,本发明的发明人经过研究发现,根据DVS成像特点,DVS产生的事件像素点描述了场景的几何结构。因此,没有产生事件的非事件像素点必然和部分事件像素点处于同一个平面。
根据上述发现,可以表示非事件像素点P的k个邻居事件像素点,k为正整数;以表示k个邻居事件像素点的三维空间坐标,第i个邻居事件像素点的三维空间坐标的表示为设定一个假定平面,设该假定平面的方程为:f=AX+HY+OZ+P。其中,A、H、O和P都为用于标识该假定平面的参数。
假设每个邻居事件像素点和当前非事件像素点处于三维空间中的同一个平面,因此,平面方程的参数(A,H,O,P),即用于标识假定平面的参数,可以通过最小化如下公式(11)求解。
上述公式11表示k个邻居事件像素点到假定平面的距离和。
较佳地,求解上述公式(11)的一种方法是使用最小二乘法。
进一步,本发明的发明人考虑到,由于并不是所有的邻居事件像素点都和当前的非事件像素点共面,特别是在遮挡情况下。因此需要挑选出和当前的非事件像素点共面的有效邻居事件像素点。因此本方法采用RANSAC(RANdomSAmpleConsensus,随机抽样一致性)方法进行求解。
较佳地,基于RANSAC,从非事件像素点的邻居事件像素点集合中,选取符合平面分布且离散度尽可能小的子集;根据选取的子样本集,估算出用于标识三维平面的参数。
通过RANSAC求解用于标识上述平面的参数后,将当前的非事件像素点的X和Y坐标代入平面方程,得到当前的非事件像素点的深度值。
针对每目帧图像中的每个非事件像素点,重复上述过程,得到整个DVS图像所有非事件像素点的深度值。
S104:根据双目帧图像中各像素点的深度信息,进行相应处理。
上述步骤确定出的每目帧图像中各事件像素点的深度信息、和非事件像素点的深度信息,构成了每目帧图像中的各像素点的深度信息。
根据每目帧图像中的各像素点的深度信息,确定出每目帧图像的像素级深度图。
对得到的像素级深度图,进行中值滤波,得到平滑的像素级深度图。
本发明实施例可以应用于对象识别、场景三维建模、图像渲染、立体电视和辅助驾驶等众多应用领域。
当应用于对象识别时,可以根据双目帧图像中各像素点中属于对象的像素点的深度信息,更加精确地识别出对象,使得对象的显示更加清晰。
当应用于场景三维建模时,可以根据双目帧图像中各像素点的深度信息,更加精确地构建出该三维场景,从而可以得到更加逼真的该场景的三维效果。
当应用于辅助驾驶时,可以根据双目帧图像中各像素点的深度信息,更加精确地确定出前方道路中车辆等障碍、以及道路两侧的环境物体与本发明实施例中的视觉处理设备之间的距离,有利于安全驾驶。
附图4为实施本发明实施例的一个特例的技术效果展示示意图。图4中的(a)部分为原始场景的预览图像;(b)部分为DVS拍摄处理得到的帧图像;(c)部分为利用本发明实施例的图像视觉处理方法处理后的帧图像;(d)部分为利用现有技术处理后的帧图像。(c)部分相比于(d)部分,噪点明显减少,图形中同一对象轮廓范围内的像素点的对比度更加平滑统一,不同对象轮廓之间过渡更加平滑;整个图像更具有立体感。
基于上述图像视觉处理方法,本发明实施例的图像视觉处理装置的内部结构的框架示意图如图5所示,包括:事件像素点深度确定模块501、邻居事件像素点确定模块502、非事件像素点深度确定模块503和基于像素深度处理模块504。
其中,事件像素点深度确定模块501用于确定出通过动态视觉传感器获取的双目帧图像中每个事件像素点的视差和深度信息。
邻居事件像素点确定模块502用于确定出双目帧图像中每个非事件像素点的多个邻居事件像素点。
非事件像素点深度确定模块503用于根据每个非事件像素点的各邻居事件像素点的位置信息,确定出该非事件像素点的深度信息。
基于像素深度处理模块504用于根据双目帧图像中各像素点的深度信息,进行相应处理。具体地,基于像素深度处理模块504用于根据事件像素点深度确定模块501确定出的双目帧图像中每个事件像素点的深度信息、以及非事件像素点深度确定模块503确定出的双目帧图像中每个非事件像素点的深度信息,进行相应处理。
较佳地,事件像素点深度确定模块501具体用于根据双目帧图像中每个像素点及与其最接近的事件像素点,确定出该像素点的特征值;根据双目帧图像中每个像素点的特征值,确定出该像素点的代价矩阵;根据各像素点中每个事件像素点的代价矩阵,确定出该事件像素点的视差;根据动态视觉传感器摄像头的焦距和间距、以及每个事件像素点的视差,确定出该事件像素点的深度信息。
较佳地,事件像素点深度确定模块501具体用于对于双目帧图像中每一目帧图像中的每个像素点,确定出该目帧图像中与该事件像素点最接近的对比度增大、和减小的事件像素点;确定出该像素点与最接近的对比度增大、和减小的事件像素点的欧式距离,作为该像素点的正、负极欧式距离;根据该像素点的正、负极欧式距离,确定出该像素点的特征值。
较佳地,事件像素点深度确定模块501具体用于根据双目帧图像中每一目帧图像中对比度增大、减小的事件像素点,分别构建该目帧图像的正、负极性事件图像;对于每一目帧图像中每个像素点,确定出正、负极性事件图像中与该像素点最接近的事件像素点;以及,确定出该像素点与正、负极性事件图像中最接近的事件像素点的欧式距离,作为该像素点的正、负极欧式距离。
较佳地,事件像素点深度确定模块501具体用于对于双目帧图像的一目帧图像中的一个像素点,确定出另一目帧图像中与该像素点具有相同的指定轴坐标的邻域内的多个其它像素点;根据该像素点与多个其它像素点的特征值中的正极欧式距离之间、负极欧式距离之间的差值,确定出该像素点的正、负极特征匹配代价;根据该像素点与多个其它像素点之间的对比度极性的差值,确定该像素点的极性匹配代价;根据该像素点的正、负极特征匹配代价和极性匹配代价,确定出该像素点的代价矩阵。
较佳地,事件像素点深度确定模块501具体用于对于每目帧图像中的每个事件像素点,对该事件像素点的代价矩阵的代价值进行最小化,得到该事件像素点基于该目帧图像的视差;对于具有相同的指定轴坐标的两个事件像素点中的一个事件像素点,当该事件像素点基于一个目帧图像的视差与另一个事件像素点基于另一个目帧图像的视差相等时,将基于一个目帧图像的视差作为该事件像素点的视差。
较佳地,邻居事件像素点确定模块502具体用于以双目帧图像中一目帧图像的每个非事件像素点为坐标原点,沿一个坐标轴的两侧方向分别搜索到最近的两个事件像素点,作为该非事件像素点沿一个坐标轴两侧方向的两个邻居事件像素点;根据两个邻居事件像素点,确定出该非事件像素点沿另一个坐标轴两侧方向的邻居事件像素点的搜索范围;从搜索范围中搜索到事件像素点,得到该非事件像素点沿另一个坐标轴两侧方向的邻居事件像素点子集;根据各坐标轴各侧方向的邻居事件像素点子集,确定出该非事件像素点的邻居事件像素点集合。其中,一个坐标轴与另一个坐标轴相垂直。
较佳地,邻居事件像素点确定模块502具体用于根据两个邻居事件像素点在一个坐标轴上的坐标,确定出另一个坐标轴两侧方向上待搜索的事件像素点在一个坐标轴上的坐标范围,作为搜索范围;以及,沿另一个坐标轴每侧方向分别搜索最近的事件像素点;每搜索到一个事件像素点,判断该事件像素点在一个坐标轴上的坐标是否处于搜索范围内;若是,则将该事件像素点作为在另一个坐标轴该方向上的邻居事件像素点,从而得到该非事件像素点在另一个坐标轴该方向上的邻居事件像素点子集。
较佳地,邻居事件像素点确定模块502具体用于将该非事件像素点在各坐标轴各侧方向上的邻居事件像素点子集合并后,去除重复的邻居事件像素点,得到该非事件像素点的邻居事件像素点集合。
较佳地,非事件像素点深度确定模块503具体用于根据每个非事件像素点的邻居事件像素点集合中各邻居事件像素到假定平面的距离和,确定出用于标识假定平面的参数;根据用于标识假定平面的参数和每个非事件像素点的平面坐标,确定出该非事件像素点的深度信息。
上述事件像素点深度确定模块501、邻居事件像素点确定模块502、非事件像素点深度确定模块503和基于像素深度处理模块504功能的实现方法,可以参考如上述图1所示的流程步骤的具体内容,此处不再赘述。
本发明实施例中,占据帧图像大部分区域的非事件像素点的深度信息,是通过其多个邻居事件像素点的位置信息确定出的,非事件像素点不参与像素点的匹配,完全避免了现有技术中非事件像素点容易误匹配或者无法匹配的问题;即使非事件像素点之间的光照强度、对比度和纹理难以区分,或者被遮挡,本发明实施例也可利用与非事件像素点近邻的事件像素点的位置信息,较为精确地确定出非事件像素点的深度信息,提升了占据帧图像大部分区域的非事件像素点的深度信息的精度,整体上提升了帧图像的像素点的深度信息的精度,便于后续开展基于帧图像像素点的深度信息的操作。而且,本发明实施例中,节省了计算非事件像素点的视差的步骤,提升了效率。
而且,本发明实施例中,对于帧图像中的每个像素点,即使该像素点因光照强度、对比度、纹理和/或遮挡等因素影响,由于无需该像素点本身的图像特征参与确定深度信息的计算,因此可以确定出该像素点与其最接近的对比度增大、和减小的事件像素点的欧式距离,进而依次确定出该像素点的特征值、代价矩阵、各像素点中事件像素点的视差和深度信息。大大增强了确定出事件像素点的深度信息的过程对光照强度、对比度、纹理和/或遮挡等因素的抗干扰性能,增加了该过程的鲁棒性,有利于提升事件像素点的深度信息的精度。而且,一个像素点的特征既包含了最接近的对比度增大的事件像素点的影响、又包含了最接近的对比度减小的事件像素点的影响,与不区分对比度增大或减小的事件像素点相比,使得像素点的特征更加精确,从而可以整体提升事件像素点的深度信息。
进一步,本发明实施例中,以非事件像素点为坐标原点,沿一个坐标轴的两侧方向分别搜索到最近的两个事件像素点,作为两个邻居事件像素点;根据两个邻居事件像素点,确定出沿另一个坐标轴两侧方向的的搜索范围;从搜索范围中搜索到另一个坐标轴两侧方向的邻居事件像素点子集。同理得到各坐标轴各侧方向的邻居事件像素点子集,合并成集合。可见,将搜索到最近的事件像素点而不是更远的事件像素点,作为邻居事件像素点,一方面可以减少搜索面提升搜索效率,另一方面最近的事件像素点与非事件像素点共面的几率最大,可以提升利用邻居事件像素点的三维位置信息确定非事件像素点深度信息的精度。
本技术领域技术人员可以理解,本发明包括涉及用于执行本申请中所述操作中的一项或多项的设备。这些设备可以为所需的目的而专门设计和制造,或者也可以包括通用计算机中的已知设备。这些设备具有存储在其内的计算机程序,这些计算机程序选择性地激活或重构。这样的计算机程序可以被存储在设备(例如,计算机)可读介质中或者存储在适于存储电子指令并分别耦联到总线的任何类型的介质中,所述计算机可读介质包括但不限于任何类型的盘(包括软盘、硬盘、光盘、CD-ROM、和磁光盘)、ROM(Read-Only Memory,只读存储器)、RAM(Random Access Memory,随即存储器)、EPROM(Erasable ProgrammableRead-Only Memory,可擦写可编程只读存储器)、EEPROM(Electrically ErasableProgrammable Read-Only Memory,电可擦可编程只读存储器)、闪存、磁性卡片或光线卡片。也就是,可读介质包括由设备(例如,计算机)以能够读的形式存储或传输信息的任何介质。
本技术领域技术人员可以理解,可以用计算机程序指令来实现这些结构图和/或框图和/或流图中的每个框以及这些结构图和/或框图和/或流图中的框的组合。本技术领域技术人员可以理解,可以将这些计算机程序指令提供给通用计算机、专业计算机或其他可编程数据处理方法的处理器来实现,从而通过计算机或其他可编程数据处理方法的处理器来执行本发明公开的结构图和/或框图和/或流图的框或多个框中指定的方案。
本技术领域技术人员可以理解,本发明中已经讨论过的各种操作、方法、流程中的步骤、措施、方案可以被交替、更改、组合或删除。进一步地,具有本发明中已经讨论过的各种操作、方法、流程中的其他步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。进一步地,现有技术中的具有与本发明中公开的各种操作、方法、流程中的步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (12)
1.一种图像视觉处理方法,其特征在于,包括:
确定出通过动态视觉传感器DVS获取的双目帧图像中每个事件像素点的视差和深度信息;
确定出所述双目帧图像中每个非事件像素点的多个邻居事件像素点;
根据每个非事件像素点的各邻居事件像素点的位置信息,确定出该非事件像素点的深度信息;
根据所述双目帧图像中各像素点的深度信息,进行相应处理。
2.根据权利要求1所述的方法,其特征在于,所述确定出通过DVS获取的双目帧图像中每个事件像素点的视差和深度信息,包括:
根据所述双目帧图像中每个像素点及与其最接近的事件像素点,确定出该像素点的特征值;
根据所述双目帧图像中每个像素点的特征值,确定出该像素点的代价矩阵;
根据各像素点中每个事件像素点的代价矩阵,确定出该事件像素点的视差;
根据DVS摄像头的焦距和间距、以及每个事件像素点的视差,确定出该事件像素点的深度信息。
3.根据权利要求2所述的方法,其特征在于,所述根据所述双目帧图像中每个像素点及与其最接近的事件像素点,确定出该像素点的特征值,包括:
对于所述双目帧图像中每一目帧图像中的每个像素点,确定出该目帧图像中与该事件像素点最接近的对比度增大、和减小的事件像素点;
确定出该像素点与所述最接近的对比度增大、和减小的事件像素点的欧式距离,作为该像素点的正、负极欧式距离;
根据该像素点的正、负极欧式距离,确定出该像素点的特征值。
4.根据权利要求3所述的方法,其特征在于,所述对于所述双目帧图像中每一目帧图像中的每个像素点,确定出该目帧图像中与该像素点最接近的对比度增大、和减小的事件像素点,包括:
根据所述双目帧图像中每一目帧图像中对比度增大、减小的事件像素点,分别构建该目帧图像的正、负极性事件图像;
对于每一目帧图像中每个像素点,确定出正、负极性事件图像中与该像素点最接近的事件像素点;以及
所述确定出该像素点与所述最接近的对比度增大、和减小的事件像素点的欧式距离,作为该像素点的正、负极欧式距离,包括:
确定出该像素点与所述正、负极性事件图像中最接近的事件像素点的欧式距离,作为该像素点的正、负极欧式距离。
5.根据权利要求3所述的方法,其特征在于,所述根据所述双目帧图像中每个像素点的特征值,确定出该像素点的代价矩阵,包括:
对于所述双目帧图像的一目帧图像中的一个像素点,确定出另一目帧图像中与该像素点具有相同的指定轴坐标的邻域内的多个其它像素点;
根据该像素点与所述多个其它像素点的特征值中的正极欧式距离之间、负极欧式距离之间的差值,确定出该像素点的正、负极特征匹配代价;
根据该像素点与所述多个其它像素点之间的对比度极性的差值,确定该像素点的极性匹配代价;
根据该像素点的正、负极特征匹配代价和极性匹配代价,确定出该像素点的代价矩阵。
6.根据权利要求2-5任一项所述的方法,其特征在于,所述根据各像素点中每个事件像素点的代价矩阵,确定出该事件像素点的视差,包括:
对于每目帧图像中的每个事件像素点,对该事件像素点的代价矩阵的代价值进行最小化,得到该事件像素点基于该目帧图像的视差;
对于具有相同的指定轴坐标的两个事件像素点中的一个事件像素点,当该事件像素点基于一个目帧图像的视差与另一个事件像素点基于另一个目帧图像的视差相等时,将所述基于一个目帧图像的视差作为该事件像素点的视差。
7.根据权利要求1所述的方法,其特征在于,所述确定出所述双目帧图像中每个非事件像素点的多个邻居事件像素点,包括:
以所述双目帧图像中一目帧图像的每个非事件像素点为坐标原点,沿一个坐标轴的两侧方向分别搜索到最近的两个事件像素点,作为该非事件像素点沿所述一个坐标轴两侧方向的两个邻居事件像素点;
根据所述两个邻居事件像素点,确定出该非事件像素点沿另一个坐标轴两侧方向的邻居事件像素点的搜索范围;其中,所述一个坐标轴与另一个坐标轴相垂直;
从所述搜索范围中搜索到事件像素点,得到该非事件像素点沿所述另一个坐标轴两侧方向的邻居事件像素点子集;
根据各坐标轴各侧方向的邻居事件像素点子集,确定出该非事件像素点的邻居事件像素点集合。
8.根据权利要求7所述的方法,其特征在于,所述根据所述两个邻居事件像素点,确定出该非事件像素点沿另一个坐标轴两侧方向的邻居事件像素点的搜索范围,包括:
根据所述两个邻居事件像素点在所述一个坐标轴上的坐标,确定出另一个坐标轴两侧方向上待搜索的事件像素点在所述一个坐标轴上的坐标范围,作为所述搜索范围;以及
所述从所述搜索范围中搜索到事件像素点,得到该非事件像素点沿所述另一个坐标轴两侧方向的邻居事件像素点子集,包括:
沿所述另一个坐标轴每侧方向分别搜索最近的事件像素点;
每搜索到一个事件像素点,判断该事件像素点在所述一个坐标轴上的坐标是否处于所述搜索范围内;若是,则将该事件像素点作为在所述另一个坐标轴该方向上的邻居事件像素点,从而得到该非事件像素点在所述另一个坐标轴该方向上的邻居事件像素点子集。
9.根据权利要求7所述的方法,其特征在于,所述根据各坐标轴各侧方向的邻居事件像素点子集,确定出该非事件像素点的邻居事件像素点集合,包括:
将该非事件像素点在各坐标轴各侧方向上的邻居事件像素点子集合并后,去除重复的邻居事件像素点,得到该非事件像素点的邻居事件像素点集合。
10.根据权利要求1所述的方法,其特征在于,所述根据每个非事件像素点的各邻居事件像素点的位置信息,确定出该非事件像素点的深度信息,包括:
根据每个非事件像素点的邻居事件像素点集合中各邻居事件像素点到假定平面的距离和,确定出用于标识所述假定平面的参数;
根据用于标识所述假定平面的参数和每个非事件像素点的平面坐标,确定出该非事件像素点的深度信息。
11.一种图像视觉处理装置,其特征在于,包括:
事件像素点深度确定模块,用于确定出通过动态视觉传感器获取的双目帧图像中每个事件像素点的视差和深度信息;
邻居事件像素点确定模块,用于确定出所述双目帧图像中每个非事件像素点的多个邻居事件像素点;
非事件像素点深度确定模块,用于根据每个非事件像素点的各邻居事件像素点的位置信息,确定出该非事件像素点的深度信息;
基于像素深度处理模块,用于根据所述双目帧图像中各像素点的深度信息,进行相应处理。
12.一种图像视觉处理设备,其特征在于,包括:
动态视觉传感器DVS摄像头,用于拍摄获取双目帧图像;
如上述权利要求11所述的图像视觉处理装置,用于对所述双目帧图像进行视觉处理,得到所述双目帧图像中各像素点的深度信息并进行相应处理。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611033320.2A CN108076338B (zh) | 2016-11-14 | 2016-11-14 | 图像视觉处理方法、装置及设备 |
US15/812,554 US10552973B2 (en) | 2016-11-14 | 2017-11-14 | Image vision processing method, device and equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611033320.2A CN108076338B (zh) | 2016-11-14 | 2016-11-14 | 图像视觉处理方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108076338A true CN108076338A (zh) | 2018-05-25 |
CN108076338B CN108076338B (zh) | 2022-04-08 |
Family
ID=62107934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611033320.2A Active CN108076338B (zh) | 2016-11-14 | 2016-11-14 | 图像视觉处理方法、装置及设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10552973B2 (zh) |
CN (1) | CN108076338B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109126116A (zh) * | 2018-06-01 | 2019-01-04 | 成都通甲优博科技有限责任公司 | 一种体感互动方法及其系统 |
CN111768449A (zh) * | 2019-03-30 | 2020-10-13 | 北京伟景智能科技有限公司 | 一种双目视觉结合深度学习的物体抓取方法 |
CN112368707A (zh) * | 2018-07-04 | 2021-02-12 | 罗伯特·博世有限公司 | 对于车辆的周围环境中的危险的或者受危害的物体的快速识别 |
CN113155032A (zh) * | 2020-12-16 | 2021-07-23 | 重庆邮电大学 | 一种基于动态视觉传感器dvs的建筑物结构位移测量方法 |
CN113378684A (zh) * | 2021-06-04 | 2021-09-10 | 北京顺造科技有限公司 | 清洁设备及用于清洁设备的光触发事件识别方法 |
CN113762267A (zh) * | 2021-09-02 | 2021-12-07 | 北京易航远智科技有限公司 | 一种基于语义关联的多尺度双目立体匹配方法及装置 |
CN114419129A (zh) * | 2021-12-08 | 2022-04-29 | 宁波市临床病理诊断中心 | 一种视差图的去杂点方法、存储器及拍摄装置 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10257456B2 (en) * | 2017-09-07 | 2019-04-09 | Samsung Electronics Co., Ltd. | Hardware friendly virtual frame buffer |
CN108830931B (zh) * | 2018-05-23 | 2022-07-01 | 上海电力学院 | 一种基于动态网格k邻域搜索的激光点云精简方法 |
US11143879B2 (en) | 2018-05-25 | 2021-10-12 | Samsung Electronics Co., Ltd. | Semi-dense depth estimation from a dynamic vision sensor (DVS) stereo pair and a pulsed speckle pattern projector |
US10937232B2 (en) * | 2019-06-26 | 2021-03-02 | Honeywell International Inc. | Dense mapping using range sensor multi-scanning and multi-view geometry from successive image frames |
CN110487274B (zh) * | 2019-07-30 | 2021-01-29 | 中国科学院空间应用工程与技术中心 | 用于弱纹理场景的slam方法、系统、导航车及存储介质 |
CN111696143B (zh) * | 2020-06-16 | 2022-11-04 | 清华大学 | 一种事件数据的配准方法与系统 |
US11270137B2 (en) * | 2020-06-17 | 2022-03-08 | Fotonation Limited | Event detector and method of generating textural image based on event count decay factor and net polarity |
CN112232356B (zh) * | 2020-11-19 | 2023-09-22 | 中国人民解放军战略支援部队航天工程大学 | 一种基于合群度和边界特征的事件相机去噪方法 |
CN113676657B (zh) * | 2021-08-09 | 2023-04-07 | 维沃移动通信(杭州)有限公司 | 延时摄影方法、装置、电子设备及存储介质 |
CN117522733B (zh) * | 2024-01-04 | 2024-04-05 | 深圳市悦道科技有限公司 | 一种用于视频图像的智能处理方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103813156A (zh) * | 2012-11-02 | 2014-05-21 | 三星电子株式会社 | 运动传感器阵列装置和深度感测系统及使用其的方法 |
TW201519634A (zh) * | 2013-11-01 | 2015-05-16 | Univ Nat Taipei Technology | 用以建立立體影像之深度影像的修補方法 |
CN104662589A (zh) * | 2012-08-21 | 2015-05-27 | 派力肯影像公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
US20160093273A1 (en) * | 2014-09-30 | 2016-03-31 | Samsung Electronics Co., Ltd. | Dynamic vision sensor with shared pixels and time division multiplexing for higher spatial resolution and better linear separable data |
CN105865462A (zh) * | 2015-01-19 | 2016-08-17 | 北京雷动云合智能技术有限公司 | 带有深度增强视觉传感器的基于事件的三维slam方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8831111B2 (en) * | 2006-05-19 | 2014-09-09 | The Hong Kong University Of Science And Technology | Decoding with embedded denoising |
JP5761522B2 (ja) | 2009-12-04 | 2015-08-12 | Nltテクノロジー株式会社 | 立体表示装置、立体表示用画像データ生成方法、及びそのプログラム |
KR101207862B1 (ko) | 2010-12-24 | 2012-12-04 | 유기령 | 2차원 영상을 스테레오 영상으로 변환하는 방법 |
GB2490872B (en) | 2011-05-09 | 2015-07-29 | Toshiba Res Europ Ltd | Methods and systems for capturing 3d surface geometry |
KR101975247B1 (ko) | 2011-09-14 | 2019-08-23 | 삼성전자주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
KR20130060522A (ko) | 2011-11-30 | 2013-06-10 | 에스케이플래닛 주식회사 | 3차원 입체영상의 오류성 측정 장치 및 방법 |
KR101660808B1 (ko) | 2011-11-24 | 2016-09-29 | 에스케이플래닛 주식회사 | 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법 |
JP5971017B2 (ja) | 2012-08-03 | 2016-08-17 | 株式会社Jvcケンウッド | 画像処理装置、画像処理方法及び画像処理プログラム |
KR101290197B1 (ko) | 2012-02-21 | 2013-07-30 | 중앙대학교 산학협력단 | 영상의 깊이 정보 추정 장치 및 방법 |
US9430834B2 (en) | 2014-01-20 | 2016-08-30 | Nokia Corporation | Visual perception matching cost on binocular stereo images |
US20150215602A1 (en) | 2014-01-29 | 2015-07-30 | Htc Corporation | Method for ajdusting stereo image and image processing device using the same |
US11265534B2 (en) | 2014-02-08 | 2022-03-01 | Microsoft Technology Licensing, Llc | Environment-dependent active illumination for stereo matching |
US9361679B2 (en) * | 2014-07-28 | 2016-06-07 | Disney Enterprises, Inc. | Temporally coherent local tone mapping of HDR video |
WO2016047985A1 (ko) | 2014-09-25 | 2016-03-31 | 엘지전자 주식회사 | 3d 방송 신호를 처리하는 방법 및 장치 |
US10582179B2 (en) | 2016-02-01 | 2020-03-03 | Samsung Electronics Co., Ltd. | Method and apparatus for processing binocular disparity image |
-
2016
- 2016-11-14 CN CN201611033320.2A patent/CN108076338B/zh active Active
-
2017
- 2017-11-14 US US15/812,554 patent/US10552973B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104662589A (zh) * | 2012-08-21 | 2015-05-27 | 派力肯影像公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
CN103813156A (zh) * | 2012-11-02 | 2014-05-21 | 三星电子株式会社 | 运动传感器阵列装置和深度感测系统及使用其的方法 |
TW201519634A (zh) * | 2013-11-01 | 2015-05-16 | Univ Nat Taipei Technology | 用以建立立體影像之深度影像的修補方法 |
US20160093273A1 (en) * | 2014-09-30 | 2016-03-31 | Samsung Electronics Co., Ltd. | Dynamic vision sensor with shared pixels and time division multiplexing for higher spatial resolution and better linear separable data |
CN105865462A (zh) * | 2015-01-19 | 2016-08-17 | 北京雷动云合智能技术有限公司 | 带有深度增强视觉传感器的基于事件的三维slam方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109126116A (zh) * | 2018-06-01 | 2019-01-04 | 成都通甲优博科技有限责任公司 | 一种体感互动方法及其系统 |
CN112368707A (zh) * | 2018-07-04 | 2021-02-12 | 罗伯特·博世有限公司 | 对于车辆的周围环境中的危险的或者受危害的物体的快速识别 |
CN111768449A (zh) * | 2019-03-30 | 2020-10-13 | 北京伟景智能科技有限公司 | 一种双目视觉结合深度学习的物体抓取方法 |
CN111768449B (zh) * | 2019-03-30 | 2024-05-14 | 北京伟景智能科技有限公司 | 一种双目视觉结合深度学习的物体抓取方法 |
CN113155032A (zh) * | 2020-12-16 | 2021-07-23 | 重庆邮电大学 | 一种基于动态视觉传感器dvs的建筑物结构位移测量方法 |
CN113378684A (zh) * | 2021-06-04 | 2021-09-10 | 北京顺造科技有限公司 | 清洁设备及用于清洁设备的光触发事件识别方法 |
CN113378684B (zh) * | 2021-06-04 | 2024-03-29 | 北京顺造科技有限公司 | 清洁设备及用于清洁设备的光触发事件识别方法 |
CN113762267A (zh) * | 2021-09-02 | 2021-12-07 | 北京易航远智科技有限公司 | 一种基于语义关联的多尺度双目立体匹配方法及装置 |
CN113762267B (zh) * | 2021-09-02 | 2024-03-12 | 北京易航远智科技有限公司 | 一种基于语义关联的多尺度双目立体匹配方法及装置 |
CN114419129A (zh) * | 2021-12-08 | 2022-04-29 | 宁波市临床病理诊断中心 | 一种视差图的去杂点方法、存储器及拍摄装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108076338B (zh) | 2022-04-08 |
US10552973B2 (en) | 2020-02-04 |
US20180137639A1 (en) | 2018-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108076338A (zh) | 图像视觉处理方法、装置及设备 | |
US10462447B1 (en) | Electronic system including image processing unit for reconstructing 3D surfaces and iterative triangulation method | |
EP2339532B1 (en) | Depth compensated noise reduction in multi-view video | |
US10445924B2 (en) | Method and device for processing DVS events | |
CN103430210B (zh) | 信息处理系统、信息处理装置、拍摄装置、以及信息处理方法 | |
KR101038402B1 (ko) | 모노스코픽 저전력 이동 디바이스에 의한 스테레오 이미지 및 비디오의 실-시간 포착 및 생성 | |
US9014463B2 (en) | System for real-time stereo matching | |
US20110148868A1 (en) | Apparatus and method for reconstructing three-dimensional face avatar through stereo vision and face detection | |
WO2015121535A1 (en) | Method, apparatus and computer program product for image-driven cost volume aggregation | |
CN104683783A (zh) | 一种自适应深度图滤波方法 | |
CN104754180A (zh) | 降低视频画面抖动的方法与装置 | |
CN111105452A (zh) | 基于双目视觉的高低分辨率融合立体匹配方法 | |
CN115035235A (zh) | 三维重建方法及装置 | |
CN109493373A (zh) | 一种基于双目立体视觉的立体匹配方法 | |
US20100253682A1 (en) | Image generating apparatus and computer program | |
CN107392898B (zh) | 应用于双目立体视觉中的像素点视差值计算方法及装置 | |
CN114445473B (zh) | 基于深度学习算子的立体匹配方法和系统 | |
CN104636743B (zh) | 文字图像校正的方法和装置 | |
CN108109148A (zh) | 图像立体分配方法、移动终端 | |
KR100943635B1 (ko) | 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 장치 및 방법 | |
Jawed et al. | Real time rectification for stereo correspondence | |
Drajic et al. | Adaptive fusion of multimodal surveillance image sequences in visual sensor networks | |
CN112435182B (zh) | 图像降噪方法及装置 | |
Isakova et al. | FPGA design and implementation of a real-time stereo vision system | |
KR101178015B1 (ko) | 시차 맵 생성 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |