WO2018018987A1 - 一种适用于光场相机的标定预处理方法 - Google Patents

一种适用于光场相机的标定预处理方法 Download PDF

Info

Publication number
WO2018018987A1
WO2018018987A1 PCT/CN2017/083303 CN2017083303W WO2018018987A1 WO 2018018987 A1 WO2018018987 A1 WO 2018018987A1 CN 2017083303 W CN2017083303 W CN 2017083303W WO 2018018987 A1 WO2018018987 A1 WO 2018018987A1
Authority
WO
WIPO (PCT)
Prior art keywords
microlens
image
sub
light field
field camera
Prior art date
Application number
PCT/CN2017/083303
Other languages
English (en)
French (fr)
Inventor
王好谦
吴驹东
方璐
王兴政
杨芳
张永兵
戴琼海
Original Assignee
深圳市未来媒体技术研究院
清华大学深圳研究生院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市未来媒体技术研究院, 清华大学深圳研究生院 filed Critical 深圳市未来媒体技术研究院
Publication of WO2018018987A1 publication Critical patent/WO2018018987A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the invention belongs to the field of camera calibration, and in particular relates to a preprocessing method in the calibration process of a light field camera.
  • the light field camera 1.0 refers to the light field camera where the distance from the sensor to the microlens array is equal to the focal length of the microlens, and the light field camera 2.0 refers to the distance from the sensor to the microlens array.
  • a light field camera equal to the focal length of the microlens. Since the sub-image under each microlens of the light field camera 1.0 is an integral of each direction of a certain point in the scene, only the angle information is described, so its sub-image almost does not see the texture information of the real scene; The sub-image of the Field Camera 2.0 moderately reduces the angle information while increasing the position information. This principle difference has led to some pre-processing methods used in the calibration method proposed by the light field camera 1.0 not applicable to the light field camera 2.0, so it is necessary to propose a practical and effective light field camera 2.0. Calibration pretreatment method.
  • the first step is to process the white image.
  • the microlens center point is acquired and the white image is rotated and translated corrected.
  • the current mainstream method for obtaining the center point of the microlens is the halo method.
  • the second step is corner detection.
  • the imaging principle of the light field camera 2.0 makes it possible to detect the checkerboard corner points, but the sub-image contains angle information, which makes it different from the traditional camera checkerboard corner detection method.
  • the object of the present invention is to propose a calibration preprocessing method suitable for a light field camera, and to solve the calibration problem that some preprocessing methods used in the calibration method proposed for the light field camera 1.0 are not applicable to the light field camera 2.0.
  • a calibration preprocessing method suitable for a light field camera comprising the steps of:
  • step S2 giving a checkerboard image, and matching the checkerboard image with the white image preprocessed in step S1 to obtain a sub-image under the designated microlens;
  • step S3 Perform corner detection on each sub-image obtained in step S2.
  • step S1 comprises the following steps:
  • S12 morphologically obtaining a maximum value method to find all local maximum points in the white image, that is, a microlens center point;
  • step S13 performing a horizontal and vertical linear fitting on the center point of the microlens found in step S12, and correcting those center points that are not on the straight line;
  • step S14 comprises the following steps:
  • S141 First, a sub-image under a microlens is circled by using a square box; then the sub-image under the microlens is reconstructed by a morphological reconstruction method;
  • S143 calculating a center point distance between each microlens and the surrounding microlens, denoted as ⁇ D i,j ⁇ , i denotes a serial number of the microlens, and j denotes a serial number of the microlens around the microlens;
  • the standard deviation Stdev i,j of ⁇ D i,j ⁇ if the standard deviation is greater than a threshold thre1, the microlens is used as a candidate anomalous microlens; the maximum and minimum values in ⁇ D i,j ⁇ are removed, and the standard is calculated again.
  • the difference Stdev' i,j if the standard deviation is still greater than a threshold thre2, the microlens is marked as an abnormal microlens;
  • S144 Calculating the mean value of the center point of the surrounding microlens This mean value is used to further correct the center point position of the microlens.
  • step S3 comprises the following steps:
  • S32 classify the detected straight lines, and obtain intersection points of the straight lines as candidate corner points
  • step S31 comprises the following steps:
  • S311 performing canny edge detection on the sub-image, removing the edge of the microlens, so that the edge in the sub-image is only the edge of the checkerboard;
  • step S32 comprises the following steps:
  • the criterion for culling the corner points of the candidate corner points that are closer to each other in step S33 is: if the distance from one intersection point a to the intersection point b is less than a threshold value, then the two intersection points are used as candidates to delete the intersection point; if the intersection point a If the distance to other intersections is greater than this threshold, then a is removed from the candidate deletion intersection, otherwise the intersection a is deleted, and the same operation is performed on the intersection b.
  • step S34 comprises the following steps:
  • a step is obtained along the square, and a step value is summed, and recorded as Called a gradation sum, and then calculate the perimeter peri q of the box; where q represents the box to be calculated, and grad i represents the difference between the i+1th pixel and the ith pixel along the box;
  • the step is independent of the perimeter peri q of the box, only related to the position, a step and maximum of the box containing the corner points, ie:
  • Figure 1 is a basic flow chart of the present invention
  • FIG. 2 is a schematic diagram of a center point of a microlens indicated by a local maximum value of a sub-image according to an embodiment of the present invention
  • FIG. 3 is a schematic diagram of a center point of a microlens after being corrected by linear fitting according to an embodiment of the present invention
  • FIG. 4 is a schematic diagram of a center point of a microlens after being optimized by a center of gravity according to an embodiment of the present invention
  • FIG. 5 is a schematic diagram of a sub-image under a microlens circled by a square frame according to an embodiment of the present invention
  • FIG. 6 is a schematic diagram of separating a sub-image under a single microlens by morphological reconstruction according to an embodiment of the present invention
  • FIG. 7 is a schematic diagram of corner point optimization according to an embodiment of the present invention.
  • the calibration preprocessing method suitable for a light field camera proposed by the invention comprises the following steps:
  • the white image is subjected to disc filtering, and then all the local maximum points in the white image are found by morphologically obtaining the maximum value.
  • the black marked point is expressed as the center point of the microlens. .
  • the center points located in the same row or the same column are not in a straight line, which does not coincide with the arrangement of the microlens arrays in a straight line. Therefore, it is necessary to perform horizontal and vertical straight line fitting on these center points in rows and columns, and the fitting results are shown in Fig. 3.
  • the approximate distance between the center points of two microlenses can be calculated, which is recorded as Dist centers .
  • the halo method requires that the incident light is incident perpendicularly to the thin lens, and the brightest point is the center point of the thin lens.
  • the incident light of the remaining microlenses does not satisfy this assumption, resulting in a deviation of two or three pixels between the brightest point and the center point of the microlens.
  • the steps are as follows:
  • I is the set of all the contours found.
  • the position of the center of gravity of the sub-image is calculated using the best contour C * , and this center of gravity point is used to correct the center of gravity of the microlens.
  • ⁇ D i,j ⁇ i denotes the serial number of the microlens
  • j denotes the serial number of the microlens around the microlens.
  • the standard deviation Stdev i,j of ⁇ D i,j ⁇ is calculated , and if the standard deviation is greater than a threshold thre1, this microlens is used as a candidate anomalous microlens.
  • the maximum and minimum values in ⁇ D i,j ⁇ are removed, and the standard deviation Stdev' i,j is again calculated. If the standard deviation is still greater than a threshold thre2, the microlens is marked as an abnormal microlens.
  • step S2 Given a checkerboard image, the checkerboard image is combined with the white image preprocessed in step S1 to obtain a sub-image under the designated microlens.
  • step S3 Perform corner detection on each sub-image obtained in step S2.
  • Sub-images under each microlens can be obtained by a white image processing step. Given a checkerboard image, you can use the checkerboard image to match the white image to obtain a subimage under the specified microlens. Then process each sub-image, including the following links:
  • intersection points are screened, and the criterion is that if the distance from an intersection point a to the intersection point b is less than a threshold value, both intersection points are used as candidates to delete the intersection point. If the distance from the intersection point a to other intersection points is greater than the threshold value, then Remove a from the candidate delete intersection, otherwise delete intersection a and perform the same operation on intersection b.

Abstract

本发明公开一种适用于光场相机的标定预处理方法,所述方法包括如下步骤:S1:白图像预处理,得到每个微透镜下的子图像;S2:给定一张棋盘格图像,将棋盘格图像与步骤S1预处理后的白图像相与,获得指定微透镜下的子图像;S3:对步骤S2得到的每一个子图像进行角点检测。在白图像处理中,首先利用光晕法确定微透镜的中心点位置,然后通过线性拟合,子图像重心点,周围微透镜中心点等手段优化微透镜的中心点位置。在角点检测中,采用霍夫线检测,然后计算出角点的位置,再通过自定义的一个指标不断迭代优化角点,得到更精确的坐标位置。

Description

一种适用于光场相机的标定预处理方法 技术领域
本发明属于相机标定领域,特别是涉及到光场相机标定过程中的一种预处理方法。
背景技术
近几年,相机家族中迎来一名新兴成员——手持式光场相机。从原理上,它颠覆了传统相机采集光线的方式,传统相机对场景中某一点所有方向的光线积分,而光场相机(下文中出现的光场相机指的就是手持式光场相机)对场景中某一点的各个方向的光线积分。从功能上,它改变了现有传统相机的拍照方式,传统相机一般是先聚焦再拍照,而光场相机可以先拍照再聚焦。从应用前景上,它可以与目前最为火热的虚拟现实、增强现实相结合,为它们提供硬件支持。
尽管光场相机具有很多优点,但是它不像传统相机那样具有一个很成熟的标定方法。目前很多关于光场相机标定的方法都是针对Lytro相机,比如说2013年在CVPR(计算视觉与模式识别会议)上发表的基于4D光场模型,在真实场景与传感器记录的数据之间建立联系的标定方法,同年在ICCV上Cho提出了一种从频域角度分析的数据预处理方法,之后Bok又提出了使用线特征标定。以上这些研究都是针对光场相机1.0展开,光场相机1.0是指传感器到微透镜阵列的距离等于微透镜焦距的光场相机,而光场相机2.0指的是传感器到微透镜阵列的距离不等于微透镜焦距的光场相机。由于光场相机1.0的每个微透镜下的子图像是场景中某个点的各个方向的积分,只是描述了角度信息,所以它的子图像几乎是看不出真实场景的纹理信息;相反光场相机2.0的子图像适度地减少了角度信息,同时增加了位置信息。这一原理性的不同,导致了针对光场相机1.0提出的在标定方法中所用到的一些预处理手段不适用于光场相机2.0,因此有必要对光场相机2.0提出一种切实可行且有效的标定预处理方法。
光场相机标定方法预处理主要有两个步骤。第一步,对白图像进行处理, 获取微透镜中心点,并且对白图像进行旋转和平移校正。目前获取微透镜中心点的主流手段是光晕法。第二步,角点检测。光场相机2.0的成像原理使得棋盘格角点检测成为可能,但是子图像含有角度信息,又使得它不同于传统相机棋盘格角点检测方法。
发明内容
本发明的目的是提出一种适用于光场相机的标定预处理方法,解决针对光场相机1.0提出的标定方法中所用到的一些预处理手段不适用于光场相机2.0的标定问题。
为达到上述目的,本发明采用了以下技术方案:
一种适用于光场相机的标定预处理方法,其特征在于,包括如下步骤:
S1:白图像预处理,得到每个微透镜下的子图像;
S2:给定一张棋盘格图像,将棋盘格图像与步骤S1预处理后的白图像相与,获得指定微透镜下的子图像;
S3:对步骤S2得到的每一个子图像进行角点检测。
优选地,步骤S1包括如下步骤:
S11:对白图像进行圆盘滤波;
S12:利用形态学上求取极大值的方法寻找到白图像中所有的局部极大值点,即微透镜中心点;
S13:对步骤S12找到的微透镜中心点做水平和垂直的线性拟合,校正那些不在直线上的中心点;
S14:利用形态学重构的方法进一步重构出每个微透镜下的子图像,并求取该子图像的重心,用重心点去校正微透镜的中心点位置。
进一步优选地,步骤S14包括如下步骤:
S141:首先利用一个正方形方框圈出一个微透镜下的子图像;然后采用形态学重构的方法重构出微透镜下的子图像;
S142:找到步骤S141获得的子图像的轮廓,对获取到的轮廓进行预估判断,选取规则如下式:
C*=argminC∈I|C-π·Distcenters|
其中I是找到的所有轮廓的集合;
利用最佳轮廓C*计算出子图像的重心位置,并用这个重心点去修正微透镜重心点;
S143:计算每个微透镜与周围微透镜之间的中心点距离,记为{Di,j},i表示该微透镜的序列号,j表示该微透镜周围微透镜的序列号;再计算出{Di,j}的标准差Stdevi,j,如果该标准差大于一个阈值thre1,则把这个微透镜作为候选异常微透镜;去掉{Di,j}中最大最小值,再次计算标准差Stdev'i,j,如果标准差仍大于一个阈值thre2,则把这个微透镜标记为异常微透镜;
S144:计算周围微透镜中心点的均值
Figure PCTCN2017083303-appb-000001
利用这个均值进一步校正微透镜的中心点位置。
优选地,步骤S3包括如下步骤:
S31:对每个微透镜下的子图像做线检测;
S32:将检测出来的直线进行分类,并求取直线的交点作为候选角点;
S33:剔除掉候选角点中距离较近的角点;
S34:对角点进行优化。
进一步优选地,步骤S31包括如下步骤:
S311:对子图像做canny边缘检测,去掉微透镜边缘,使得子图像中的边缘仅为棋盘格的边缘;
S312:使用霍夫线检测检测出子图像中的所有直线。
进一步优选地,步骤S32包括如下步骤:
S321:依据直线的倾斜角将直线分为两类,记为{LΑ,LΒ},再对每一类直线进行密度聚类,结果记为{LΑi},{LΒj}。对每一类直线求出直线参数的均值,记为
Figure PCTCN2017083303-appb-000002
S322:计算两类分别来自{LΑi}和{LΒj}的直线之间的交点,计算公式如下所示:
Figure PCTCN2017083303-appb-000003
Figure PCTCN2017083303-appb-000004
其中Δ=cosθ1sinθ2-cosθ2sinθ1
进一步优选地,步骤S33剔除掉候选角点中距离较近的角点的准则是:如果一个交点a到交点b的距离小于一个阈值,则把这两个交点都作为候选删除交点;如果交点a到其他交点的距离都大于这一阈值,则把a从候选删除交点中移除,否则删除交点a,对交点b进行同样操作。
进一步优选地,步骤S34包括如下步骤:
S341:沿着方框求一阶梯度,并对一阶梯度值求和,记为
Figure PCTCN2017083303-appb-000005
称为一阶梯度和,然后计算出方框的周长periq;其中q表示要计算的方框,gradi表示沿着方框的第i+1个像素与第i个像素的差分;
S342:将角点定义为:
Figure PCTCN2017083303-appb-000006
S343:不断迭代减小方框周长periq,就能提高角点的精确度。
更进一步优选地,所述一阶梯度和与所述方框的周长periq无关,只和位置有关,包含角点的方框的一阶梯度和最大,即:
Figure PCTCN2017083303-appb-000007
本发明的优点及有益效果是:
1、提出了一种微透镜中心点位置优化的方法;
2、能够很好地标记出有破损的微透镜,具有较强的鲁棒性;
3、提出了用线检测的方法做光场相机2.0的角点检测;
4、提出了一种类似于旋度的算子优化检测出的角点。
附图说明
图1为本发明的基本流程图图;
图2为本发明实施例利用子图像局部极大值标出的微透镜中心点示意图;
图3为本发明实施例利用线性拟合矫正之后的微透镜中心点示意图;
图4为本发明实施例经过重心优化之后的微透镜中心点示意图;
图5为本发明实施例利用一个正方形方框圈出一个微透镜下的子图像示意图;
图6为本发明实施例利用形态学重构分离出单个微透镜下的子图像示意图;
图7为本发明实施例角点优化示意图。
具体实施方式
下面结合具体实施方式并对照附图对本发明作进一步详细说明。应该强调的是,下述说明仅仅是示例性的,而不是为了限制本发明的范围及其应用。
请参考图1。本发明提出的一种适用于光场相机的标定预处理方法,包括如下步骤:
S1:白图像预处理,得到每个微透镜下的子图像。
首先对白图像进行圆盘滤波,然后利用形态学上求取极大值的方法寻找到白图像中所有的局部极大值点,如附图2所示,黑色标记点表示为微透镜的中心点。由图2可知,位于同一行或同一列的中心点并不在一条直线上,这与微透镜阵列按直线排列不符合。因此,需要对这些中心点按行和按列分别进行水平和垂直的直线拟合,拟合的结果如附图3所示。同时也可以计算出临近两个微透镜中心点近似距离,记为Distcenters
光晕法要求入射光线垂直入射薄透镜,这时最亮点才是薄透镜的中心点。但是除了靠近主透镜光轴的微透镜,其余微透镜的入射光线并不满足这一假设,导致最亮点和微透镜中心点有两三个像素的偏差。此时用最亮点去估计微透镜中心点不是很妥当,有必要利用其他手段对中心点的位置优化。其步骤如下:
1)利用一个正方形方框圈出一个微透镜下的子图像,如附图5所示,由于该方框中还包含了其他子图像的一些信息,此处采用形态学重构的方法重构出给微透镜下的子图像,如附图6所示。
2)找到子图像的轮廓,对获取到的轮廓进行预估判断,选取规则如下式:
C*=argminC∈I|C-π·Distcenters|     (1)
其中I是找到的所有轮廓的集合。利用最佳轮廓C*计算出子图像的重心位置,并用这个重心点去修正微透镜重心点。
3)计算每个微透镜与周围微透镜之间的中心点距离,记为{Di,j},i表示该微透镜的序列号,j表示该微透镜周围微透镜的序列号。再计算出{Di,j}的标准差Stdevi,j,如果该标准差大于一个阈值thre1,则把这个微透镜作为候选异常微透镜。去掉{Di,j}中最大最小值,再次计算标准差Stdev'i,j,如果标准差仍大于一个阈值thre2,则把这个微透镜标记为异常微透镜。
4)计算周围微透镜中心点的均值
Figure PCTCN2017083303-appb-000008
利用这个均值进一步校正微透镜的中心点位置。
最后经过优化之后的中心点如附图4所示。
S2:给定一张棋盘格图像,将棋盘格图像与步骤S1预处理后的白图像相与,获得指定微透镜下的子图像。
S3:对步骤S2得到的每一个子图像进行角点检测。
通过白图像处理步骤,可以得到每个微透镜下的子图像。给定一张棋盘格图像,可以利用棋盘格图像与白图像相与,获得指定微透镜下的子图像。然后对每一个子图像进行处理,包括以下几个环节:
1)对子图像做canny边缘检测,去掉微透镜边缘,使得子图像中的边缘仅为棋盘格的边缘。
2)使用霍夫线检测检测出子图像中的所有直线,然后依据直线的倾斜角将直线分为两类,记为{LΑ,LΒ},再对每一类直线进行密度聚类,结果记为{LΑi},{LΒj}。对每一类直线求出直线参数的均值,记为
Figure PCTCN2017083303-appb-000009
3)计算两类分别来自{LΑi}和{LΒj}的直线之间的交点,计算公式如下所示:
Figure PCTCN2017083303-appb-000010
其中Δ=cosθ1sinθ2-cosθ2sinθ1。然后对这些交点筛选,判断准则是,如果一个交点a到交点b的距离小于一个阈值,则把这两个交点都作为候选删除交点,如果交点a到其他交点的距离都大于这一阈值,则把a从候选删除交点中移除,否则删除交点a,对交点b进行同样操作。
4)角点优化。如附图7所示,沿着方框求一阶梯度,并对一阶梯度值求和,记为
Figure PCTCN2017083303-appb-000011
称为一阶梯度和,然后计算出方框的周长periq。其中q表示要计算的方框,gradi表示沿着方框的第i+1个像素与第i个像素的差分。可知:
Figure PCTCN2017083303-appb-000012
上式说明在一定条件下,一阶梯度和与方框的周长periq无关,只和位置有关,包含角点的方框的一阶梯度和最大。将角点定义为:
Figure PCTCN2017083303-appb-000013
由此可知,只需不断迭代减小方框周长periq就能提高角点的精确度。
以上内容是结合具体的/优选的实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,其还可以对这些已描述的实施例做出若干替代或变型,而这些替代或变型方式都应当视为属于本发明的保护范围。

Claims (9)

  1. 一种适用于光场相机的标定预处理方法,其特征在于,包括如下步骤:
    S1:白图像预处理,得到每个微透镜下的子图像;
    S2:给定一张棋盘格图像,将棋盘格图像与步骤S1预处理后的白图像相与,获得指定微透镜下的子图像;
    S3:对步骤S2得到的每一个子图像进行角点检测。
  2. 根据权利要求1所述的适用于光场相机的标定预处理方法,其特征在于,步骤S1包括如下步骤:
    S11:对白图像进行圆盘滤波;
    S12:利用形态学上求取极大值的方法寻找到白图像中所有的局部极大值点,即微透镜中心点;
    S13:对步骤S12找到的微透镜中心点做水平和垂直的线性拟合,校正那些不在直线上的中心点;
    S14:利用形态学重构的方法进一步重构出每个微透镜下的子图像,并求取该子图像的重心,用重心点去校正微透镜的中心点位置。
  3. 根据权利要求2所述的适用于光场相机的标定预处理方法,其特征在于,步骤S14包括如下步骤:
    S141:首先利用一个正方形方框圈出一个微透镜下的子图像;然后采用形态学重构的方法重构出微透镜下的子图像;
    S142:找到步骤S141获得的子图像的轮廓,对获取到的轮廓进行预估判断,选取规则如下式:
    C*=argminC∈I|C-π·Distcenters|
    其中I是找到的所有轮廓的集合;
    利用最佳轮廓C*计算出子图像的重心位置,并用这个重心点去修正微透镜重心点;
    S143:计算每个微透镜与周围微透镜之间的中心点距离,记为{Di,j},i表示该微透镜的序列号,j表示该微透镜周围微透镜的序列号;再计算出{Di,j}的标准差Stdevi,j,如果该标准差大于一个阈值thre1,则把这个微透镜作为候选异常 微透镜;去掉{Di,j}中最大最小值,再次计算标准差Stdev′i,j,如果标准差仍大于一个阈值thre2,则把这个微透镜标记为异常微透镜;
    S144:计算周围微透镜中心点的均值
    Figure PCTCN2017083303-appb-100001
    利用这个均值进一步校正微透镜的中心点位置。
  4. 根据权利要求1所述的适用于光场相机的标定预处理方法,其特征在于,步骤S3包括如下步骤:
    S31:对每个微透镜下的子图像做线检测;
    S32:将检测出来的直线进行分类,并求取直线的交点作为候选角点;
    S33:剔除掉候选角点中距离较近的角点;
    S34:对角点进行优化。
  5. 根据权利要求4所述的适用于光场相机的标定预处理方法,其特征在于,步骤S31包括如下步骤:
    S311:对子图像做canny边缘检测,去掉微透镜边缘,使得子图像中的边缘仅为棋盘格的边缘;
    S312:使用霍夫线检测检测出子图像中的所有直线。
  6. 根据权利要求4所述的适用于光场相机的标定预处理方法,其特征在于,步骤S32包括如下步骤:
    S321:依据直线的倾斜角将直线分为两类,记为{LΑ,LΒ},再对每一类直线进行密度聚类,结果记为{LΑi},{LΒj};对每一类直线求出直线参数的均值,记为
    Figure PCTCN2017083303-appb-100002
    S322:计算两类分别来自{LΑi}和{LΒj}的直线之间的交点,计算公式如下所示:
    Figure PCTCN2017083303-appb-100003
    Figure PCTCN2017083303-appb-100004
    其中Δ=cosθ1sinθ2-cosθ2sinθ1
  7. 根据权利要求4所述的适用于光场相机的标定预处理方法,其特征在于, 步骤S33剔除掉候选角点中距离较近的角点的准则是:如果一个交点a到交点b的距离小于一个阈值,则把这两个交点都作为候选删除交点;如果交点a到其他交点的距离都大于这一阈值,则把a从候选删除交点中移除,否则删除交点a,对交点b进行同样操作。
  8. 根据权利要求4所述的适用于光场相机的标定预处理方法,其特征在于,步骤S34包括如下步骤:
    S341:沿着方框求一阶梯度,并对一阶梯度值求和,记为
    Figure PCTCN2017083303-appb-100005
    称为一阶梯度和,然后计算出方框的周长periq;其中q表示要计算的方框,gradi表示沿着方框的第i+1个像素与第i个像素的差分;
    S342:将角点定义为:
    Figure PCTCN2017083303-appb-100006
    S343:不断迭代减小方框周长periq,就能提高角点的精确度。
  9. 根据权利要求8所述的适用于光场相机的标定预处理方法,其特征在于,所述一阶梯度和与所述方框的周长periq无关,只和位置有关,包含角点的方框的一阶梯度和最大,即:
    dgradi=∑agradi>∑bgradi>∑cgradi
PCT/CN2017/083303 2016-07-29 2017-05-05 一种适用于光场相机的标定预处理方法 WO2018018987A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610613216.4 2016-07-29
CN201610613216.4A CN106296661B (zh) 2016-07-29 2016-07-29 一种适用于光场相机的标定预处理方法

Publications (1)

Publication Number Publication Date
WO2018018987A1 true WO2018018987A1 (zh) 2018-02-01

Family

ID=57663160

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/083303 WO2018018987A1 (zh) 2016-07-29 2017-05-05 一种适用于光场相机的标定预处理方法

Country Status (2)

Country Link
CN (1) CN106296661B (zh)
WO (1) WO2018018987A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111445491A (zh) * 2020-03-24 2020-07-24 山东智翼航空科技有限公司 微型无人机三邻域极大差值边缘检测狭道导引算法
CN111553927A (zh) * 2020-04-24 2020-08-18 厦门云感科技有限公司 棋盘格角点检测方法、检测系统、计算机装置及存储介质
CN111710005A (zh) * 2020-06-18 2020-09-25 齐鲁工业大学 一种栅格式热红外相机标定板及标定方法
CN112489065A (zh) * 2020-11-27 2021-03-12 广东奥普特科技股份有限公司 一种棋盘格标定点亚像素提取方法
CN112614146A (zh) * 2020-12-21 2021-04-06 广东奥普特科技股份有限公司 棋盘格标定角点的判别方法、装置及计算机可读存储介质
CN113643280A (zh) * 2021-08-30 2021-11-12 燕山大学 一种基于计算机视觉的板材分拣系统及方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106296661B (zh) * 2016-07-29 2019-06-28 深圳市未来媒体技术研究院 一种适用于光场相机的标定预处理方法
CN107610182B (zh) * 2017-09-22 2018-09-11 哈尔滨工业大学 一种光场相机微透镜阵列中心的标定方法
CN109801300B (zh) * 2017-11-16 2020-08-28 北京百度网讯科技有限公司 棋盘格角点的坐标提取方法、装置、设备及计算机可读存储介质
CN108305233B (zh) * 2018-03-06 2019-07-02 哈尔滨工业大学 一种针对微透镜阵列误差的光场图像校正方法
CN108426585B (zh) * 2018-03-12 2019-09-13 哈尔滨工业大学 一种光场相机的几何标定方法
CN109859226B (zh) * 2019-01-10 2022-06-17 上海理工大学 一种图形分割的棋盘格角点亚像素的检测方法
CN111179353B (zh) * 2019-12-17 2023-05-26 清华大学深圳国际研究生院 一种光场相机的微透镜阵列标定方法及系统
CN111340888B (zh) * 2019-12-23 2020-10-23 首都师范大学 一种无需白图像的光场相机检校方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110026910A1 (en) * 2009-07-28 2011-02-03 National Taiwan University Photometric calibration method and device
CN105374044A (zh) * 2015-12-04 2016-03-02 中国科学院光电技术研究所 一种光场相机的自动标定方法
CN105488810A (zh) * 2016-01-20 2016-04-13 东南大学 一种聚焦光场相机内外参数标定方法
CN106296661A (zh) * 2016-07-29 2017-01-04 深圳市未来媒体技术研究院 一种适用于光场相机的标定预处理方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420276B2 (en) * 2012-02-28 2016-08-16 Lytro, Inc. Calibration of light-field camera geometry via robust fitting

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110026910A1 (en) * 2009-07-28 2011-02-03 National Taiwan University Photometric calibration method and device
CN105374044A (zh) * 2015-12-04 2016-03-02 中国科学院光电技术研究所 一种光场相机的自动标定方法
CN105488810A (zh) * 2016-01-20 2016-04-13 东南大学 一种聚焦光场相机内外参数标定方法
CN106296661A (zh) * 2016-07-29 2017-01-04 深圳市未来媒体技术研究院 一种适用于光场相机的标定预处理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GAO, ZHEN: "Data Processing and Calibration Method for the Light-Field Cameras", CNKI CHINESE MASTER'S THESES FULL-TEXT DATABASE, 31 December 2015 (2015-12-31) *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111445491A (zh) * 2020-03-24 2020-07-24 山东智翼航空科技有限公司 微型无人机三邻域极大差值边缘检测狭道导引算法
CN111445491B (zh) * 2020-03-24 2023-09-15 山东智翼航空科技有限公司 微型无人机三邻域极大差值边缘检测狭道导引方法
CN111553927A (zh) * 2020-04-24 2020-08-18 厦门云感科技有限公司 棋盘格角点检测方法、检测系统、计算机装置及存储介质
CN111553927B (zh) * 2020-04-24 2023-05-16 厦门云感科技有限公司 棋盘格角点检测方法、检测系统、计算机装置及存储介质
CN111710005A (zh) * 2020-06-18 2020-09-25 齐鲁工业大学 一种栅格式热红外相机标定板及标定方法
CN111710005B (zh) * 2020-06-18 2023-03-31 齐鲁工业大学 一种栅格式热红外相机标定板及标定方法
CN112489065A (zh) * 2020-11-27 2021-03-12 广东奥普特科技股份有限公司 一种棋盘格标定点亚像素提取方法
CN112489065B (zh) * 2020-11-27 2023-07-07 广东奥普特科技股份有限公司 一种棋盘格标定点亚像素提取方法
CN112614146A (zh) * 2020-12-21 2021-04-06 广东奥普特科技股份有限公司 棋盘格标定角点的判别方法、装置及计算机可读存储介质
CN112614146B (zh) * 2020-12-21 2022-05-13 广东奥普特科技股份有限公司 棋盘格标定角点的判别方法、装置及计算机可读存储介质
CN113643280A (zh) * 2021-08-30 2021-11-12 燕山大学 一种基于计算机视觉的板材分拣系统及方法
CN113643280B (zh) * 2021-08-30 2023-09-22 燕山大学 一种基于计算机视觉的板材分拣系统及方法

Also Published As

Publication number Publication date
CN106296661B (zh) 2019-06-28
CN106296661A (zh) 2017-01-04

Similar Documents

Publication Publication Date Title
WO2018018987A1 (zh) 一种适用于光场相机的标定预处理方法
CN109544456B (zh) 基于二维图像和三维点云数据融合的全景环境感知方法
CN109410207B (zh) 一种基于ncc特征的无人机巡线图像输电线路检测方法
CN102426649B (zh) 一种简单的高准确率的钢印数字自动识别方法
Zhang et al. Detecting and extracting the photo composites using planar homography and graph cut
CN112116576B (zh) 基于偏振结构光成像和改进的缺陷检测方法
CN109190628A (zh) 一种基于机器视觉的板材镰刀弯检测方法
CN109086675B (zh) 一种基于光场成像技术的人脸识别及攻击检测方法及其装置
US20090232358A1 (en) Method and apparatus for processing an image
CN102509093B (zh) 近距离数字化证件信息采集系统
CN106657789A (zh) 一种螺纹全景图像合成方法
CN109584281B (zh) 一种基于彩色图像和深度图像的重叠颗粒物分层计数方法
WO2018170937A1 (zh) 遮蔽采集图像中异物的标记体、识别图像中异物标记体的方法以及书籍扫描方法
CN111354077B (zh) 一种基于双目视觉的三维人脸重建方法
CN103902953B (zh) 一种屏幕检测系统及方法
CN109559324A (zh) 一种线阵图像中的目标轮廓检测方法
CN110662014B (zh) 一种光场相机四维数据大景深三维显示的方法
CN106600653A (zh) 一种变倍相机光心标定方法
CN106651959A (zh) 一种光场相机微透镜阵列几何参数的标定方法
CN111665199A (zh) 一种基于机器视觉的电线电缆颜色检测识别方法
Labati et al. Fast 3-D fingertip reconstruction using a single two-view structured light acquisition
Liu et al. Iterating tensor voting: A perceptual grouping approach for crack detection on EL images
CN108510544A (zh) 一种基于特征聚类的光条定位方法
CN113180640B (zh) 一种家畜养殖用尺寸测量方法及系统
WO2023134251A1 (zh) 一种基于聚类的光条提取方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17833293

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17833293

Country of ref document: EP

Kind code of ref document: A1