JP4872890B2 - Image distortion correction method - Google Patents
Image distortion correction method Download PDFInfo
- Publication number
- JP4872890B2 JP4872890B2 JP2007302215A JP2007302215A JP4872890B2 JP 4872890 B2 JP4872890 B2 JP 4872890B2 JP 2007302215 A JP2007302215 A JP 2007302215A JP 2007302215 A JP2007302215 A JP 2007302215A JP 4872890 B2 JP4872890 B2 JP 4872890B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- distortion
- distortion correction
- correction function
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000003287 optical effect Effects 0.000 claims description 14
- 230000004075 alteration Effects 0.000 abstract description 16
- 238000010586 diagram Methods 0.000 description 24
- 238000005457 optimization Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、歪曲収差のあるレンズを用いたカメラによって撮影された画像について、歪曲を補正する画像の歪曲補正方法に関する。 The present invention relates to an image distortion correction method for correcting distortion of an image taken by a camera using a lens having distortion aberration.
一般的に、広角レンズを用いたカメラによって撮影した画像は歪曲を伴うので、撮影対象を正確に把握するには、歪曲を補正するための画像処理が必要となる。例えば、自動車の後方や側方等の視界を車室内で表示する種々の装置が提案され、市販されている。このような装置では、表示画像を見やすくするために種々の対策が講じられている。カメラに広角レンズが用いられている場合には、表示画像は歪曲を伴うため、これに対する対策が必要となる。例えば、駐車支援装置に関し、駐車案内のために自車の走行予想軌跡を撮影画像に重畳して表示する通称バックガイドモニタが市販されている。この中には、表示装置上に描画する走行予想軌跡の位置および形状を、レンズの歪曲特性に合わせて意図的に歪ませるように処理する装置もある。 In general, an image captured by a camera using a wide-angle lens is distorted, and thus image processing for correcting the distortion is necessary to accurately grasp the photographic subject. For example, various devices for displaying the field of view of the back and sides of an automobile in the passenger compartment have been proposed and are commercially available. In such an apparatus, various measures are taken to make the display image easy to see. When a wide-angle lens is used in the camera, the display image is distorted, and measures for this need to be taken. For example, regarding a parking assistance device, a so-called back guide monitor is commercially available that displays a predicted travel locus of a host vehicle superimposed on a captured image for parking guidance. Among these devices, there is also a device that processes the position and shape of the predicted travel locus drawn on the display device so as to be intentionally distorted in accordance with the distortion characteristics of the lens.
このような装置に関連し、特許文献1には、車両の予想軌跡表示装置が開示されており、広角レンズによる歪曲を補正する方法が魚眼変換として提案されている。
In relation to such an apparatus,
また、特許文献2には、画像の歪曲を補正する方法が開示されており、歪曲補正関数としてn次のテイラー展開、すなわち、多項式近似による方法が提案されている。
さらに、特許文献3には、広角レンズを用いたカメラで撮影した画像の歪曲を補正する方法が開示されており、歪曲補正関数としてMorgan、MercerおよびFlodinの頭文字から成るMMFモデル(Morgan−Mercer−Flodinモデル)による方法が提案されている。
Further,
多項式近似による歪曲補正関数の係数は、実寸法(3次元座標値)が既知のターゲット(教示点)を配置した空間をカメラによって撮影し、この撮影した画像に投影されたターゲットの2次元座標値を抽出し、3次元座標値と2次元座標値とを対応付けた点群データをもとに非線形最適化手法によって推定する。
特許文献1では、指数関数により広角レンズの歪曲特性をモデル化しているが、非球面で作られたレンズの特性を精度よく補正することには言及されていない。また、実際のレンズの歪曲特性に対し精度よく画像の歪曲を補正する方法については開示されていない。
In
特許文献2、3では、3次元座標値が既知のターゲットを配置した空間と、この空間を撮影した画像から抽出したターゲットの2次元座標値との点群データをもとに非線形最適化手法を用いて歪曲補正関数の係数の推定している。
In
しかし、広角レンズを用いたカメラは視野角が広いため、撮影する空間全体にターゲットを配置して画像を撮影することは困難である。すなわち、広角レンズを用いたカメラで撮影した画像では、ターゲットの存在する空間が画像の中央部に偏り、歪曲補正関数の係数の推定に用いる点群データも画像の中央部に偏ることになる。また、撮影する空間全体にターゲットを配置した画像を撮影して、画像の周辺部における点群データを得ることが出来たとしても、広角レンズでは歪曲収差が大きいため、歪曲補正関数の係数の推定に当たり解の収束が得られない場合がある。そうすると、歪曲補正関数の係数の推定に用いる点群データは、画像の中央部に偏ることになる。 However, since a camera using a wide-angle lens has a wide viewing angle, it is difficult to shoot an image by arranging a target in the entire shooting space. That is, in an image taken with a camera using a wide-angle lens, the space where the target exists is biased toward the center of the image, and the point cloud data used for estimating the coefficient of the distortion correction function is also biased toward the center of the image. In addition, even if you can shoot an image with the target placed in the entire space to obtain point cloud data at the periphery of the image, the wide-angle lens has a large distortion aberration, so the coefficient of the distortion correction function is estimated. In some cases, the convergence of the solution cannot be obtained. Then, the point cloud data used for estimating the coefficient of the distortion correction function is biased toward the center of the image.
特許文献2、3では、多項式近似による歪曲補正関数について、多項式の係数の推定に用いられる点群データが存する領域内の補正、すなわち内挿の精度を向上する方法が開示されているが、多項式の係数の推定に用いられる点群データが存しない領域の補正、すなわち外挿の精度を向上することはできず、かつ、この領域の補正方法について開示されるものではない。
例えばバックガイドモニタに用いられるカメラの画像の中央部は、車両の位置合せや衝突防止の観点から、運転者にとって距離感の把握し易い歪曲の少ない画像となっている。また、この画像の周辺部は、周囲に存する他の車両や人の様子を把握し易いように広い視野を確保できる歪曲の多い画像となっている。このような画像を得るために、バックガイドモニタのカメラに用いられるレンズは、中央部の歪曲は小さく、周辺部に行くほど歪曲が大きく形成されている。 For example, the central part of the image of the camera used for the back guide monitor is an image with less distortion that makes it easy for the driver to grasp the sense of distance from the viewpoint of vehicle alignment and collision prevention. In addition, the peripheral portion of the image is a distorted image that can ensure a wide field of view so that it is easy to grasp the state of other vehicles and people in the vicinity. In order to obtain such an image, the lens used in the camera of the back guide monitor has a small distortion at the center and a larger distortion toward the periphery.
このようなレンズで撮影された画像について、従来の画像処理方法およびその装置では、画像中央部の点群データを用いて歪曲補正関数である多項式の各係数を推定していたため、画像周辺部の歪曲を十分に補正することができない。 With respect to an image shot with such a lens, the conventional image processing method and its apparatus estimate each coefficient of a polynomial that is a distortion correction function using point cloud data at the center of the image. The distortion cannot be corrected sufficiently.
本発明は、歪曲を伴うレンズを用いたカメラによって撮影した画像について、歪曲補正を適切に行う画像の歪曲補正方法を提供することを課題とする。 An object of the present invention is to provide an image distortion correction method that appropriately performs distortion correction on an image captured by a camera using a lens with distortion.
前記の課題を解決するため本発明では、歪曲のあるレンズを用いたカメラで撮影した画像を、前記カメラの光軸と前記画像面との交点を中心とする円に内包される領域では、非線形最小二乗法によって係数を求めた多項式近似による歪曲補正関数を適用して歪曲画像を補正し、前記円に内包されない領域では、非線形最小二乗法によって係数を求めた対数式近似による歪曲補正関数を適用して歪曲画像を補正することを特徴とする画像の歪曲補正方法を提供する。 In order to solve the above problems, in the present invention, an image captured by a camera using a distorted lens is nonlinear in a region included in a circle centered at the intersection of the optical axis of the camera and the image plane. Distortion images are corrected by applying a distortion correction function based on polynomial approximation for which a coefficient is obtained by the least square method, and distortion correction functions based on logarithmic approximation for which a coefficient is obtained by a nonlinear least square method are applied to the area not included in the circle. Thus, a distortion correction method for an image is provided, wherein the distortion image is corrected.
本発明によれば、歪曲を伴うレンズを用いたカメラによって撮影した画像について、歪曲補正を適切に行う画像の歪曲補正方法を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the distortion correction method of the image which performs distortion correction appropriately about the image image | photographed with the camera using the lens with a distortion can be provided.
本発明に係る画像の歪曲補正方法について添付図面を参照して説明する。 An image distortion correction method according to the present invention will be described with reference to the accompanying drawings.
先ず、カメラによって撮影する3次元空間中のある点の位置と、その点が画像面に投影された2次元画像面上での位置との関係を記述する座標系について説明する。 First, a coordinate system that describes the relationship between the position of a point in the three-dimensional space photographed by the camera and the position on the two-dimensional image plane where the point is projected on the image plane will be described.
図1は、カメラによって撮影された画像と空間の幾何学的関係を説明する図である。 FIG. 1 is a diagram for explaining the geometric relationship between an image photographed by a camera and a space.
歪曲収差のない理想的なレンズを用いたカメラによる透視投影は、図1に示すようにモデル化できる。空間を表す3次元座標系として、カメラの光学中心を原点とし、Z軸をカメラの光軸方向に一致させ、X軸とY軸は画像の横方向と縦方向に平行にとったものを用いる。このような座標系をカメラ座標系(camera coordinate system)とよぶ。一方、画像面上の位置を表す座標系としては、カメラの光軸と画像面とが交わる交点を原点とし、面像の横方向と縦方向とに、それぞれx軸とy軸とを決める。このとき、空間の位置(X,Y,Z)と画像上の位置(x,y)との間には、[数1]の関係が成り立つ。ここでは焦点距離を1に正規化している。
[数1]
x=X/Z
y=Y/Z
A perspective projection by a camera using an ideal lens without distortion can be modeled as shown in FIG. A three-dimensional coordinate system representing a space is used in which the optical center of the camera is the origin, the Z axis is aligned with the optical axis direction of the camera, and the X and Y axes are parallel to the horizontal and vertical directions of the image. . Such a coordinate system is called a camera coordinate system. On the other hand, as a coordinate system representing the position on the image plane, the intersection point where the optical axis of the camera and the image plane intersect is set as the origin, and the x axis and the y axis are determined in the horizontal direction and the vertical direction of the plane image, respectively. At this time, the relationship of [Equation 1] is established between the position (X, Y, Z) in the space and the position (x, y) on the image. Here, the focal length is normalized to 1.
[Equation 1]
x = X / Z
y = Y / Z
つぎに、空間と画像面との関係をより一般化する。一般に、空間を表す座標系は、空間中のある適当な位置に固定されたワールド座標系(world coordinate system)を用いる。ワールド座標系で表された空間の位置を(Xw,Yw,Zw)とすれば、同じ点をカメラ座標系で表した位置(X,Y,Z)との間には[数2]の関係がある。
一方、画像面上の位置は、一般に、原点を画像面上のある適当な位置に定め、長さの単位としては画素(pixel)を用いる。このような画像面上の位置を表す汎用的な座標を画像座標(imege coordinates)(u,v)とし、これと区別するため座標(x,y)を正規化画像座標(normalized image coordinates)とよぶ。このとき、正規化画像座標と画像座標との関係は、[数3]で表される。
[数1]から[数3]より、[数4]のように一般的なワールド座標(Xw,Yw,Zw)と画像座標(u,v)との間の関係が導かれる。
[数4]により、任意の空間の位置と、それが画像面に投影されたときの画像面上の位置との関係を表すことができる。ここで、カメラの焦点距離f、横方向の画素の物理的な間隔δu、縦方向の画素の物理的な間隔δvおよび画像中心(cu,cv)はカメラによって決まる定数であり、カメラの内部パラメータK(internal parameter、intrinsic parameter)とよぶ。一方、Rとtとは、ワールド座標に対するカメラの位置と姿勢によって決まる定数であり、カメラの外部パラメータ(external parameter、extrinsic parameter)とよぶ。また、カメラの内部パラメータと外部パラメータとを合わせてカメラパラメータ(camera parameter)とよぶ。 [Equation 4] can represent the relationship between the position of an arbitrary space and the position on the image plane when it is projected onto the image plane. Here, the focal length f of the camera, the physical interval δu in the horizontal direction, the physical interval δv in the vertical direction, and the image center (c u , c v ) are constants determined by the camera. It is called an internal parameter K (internal parameter, intrinsic parameter). On the other hand, R and t are constants determined by the position and orientation of the camera with respect to the world coordinates, and are called external parameters (external parameters, extrinsic parameters) of the camera. The camera internal parameters and external parameters are collectively referred to as camera parameters.
図2はレンズの歪曲収差を説明する図であり、(A)はレンズの半径方向歪曲収差を説明する図であり、(B)は実際の空間情報を示す図であり、(C)および(D)は歪曲収差の例を示す図である。 2A and 2B are diagrams for explaining lens distortion, FIG. 2A is a diagram for explaining radial distortion of the lens, FIG. 2B is a diagram showing actual spatial information, and FIGS. D) is a diagram showing an example of distortion.
広角レンズでは、レンズの半径方向や接線方向の歪曲収差(distortion)を考慮する必要がある。図2の(A)に示すように、半径方向歪曲収差は物体Aから出た光線が入射角θで光学中心を通るとき、出射角θ’が入射角θと等しくならないために生じる。接線方向歪曲収差は、レンズを構成する複数レンズ間の中心位置のずれや傾きによって発生する。接線方向歪曲収差は半径方向歪曲収差と比べて小さく、実用上は無視できることも多いため、説明の簡単のためにモデル化において省略する。 In a wide-angle lens, it is necessary to consider distortion in the radial direction and tangential direction of the lens. As shown in FIG. 2A, the radial distortion occurs when the light beam emitted from the object A passes through the optical center at the incident angle θ and the output angle θ ′ is not equal to the incident angle θ. Tangential distortion occurs due to a shift or inclination of the center position between a plurality of lenses constituting the lens. The tangential distortion is smaller than the radial distortion and is often negligible in practice, and is omitted in the modeling for the sake of simplicity.
歪曲収差は、[数5]のようにモデル化できる。
3次元空間のある点を撮影して画像座標を得るとき、歪曲収差のない理想的なレンズでは画像座標で表した位置(u,v)に投影され、歪曲収差のあるレンズでは歪曲画像座標で表した位置(ud,vd)に投影される。κ1、κ2はレンズの歪曲を表す係数である。また、歪曲収差のない理想的なレンズで画像座標に投影した位置(u,v)を予測位置、歪曲収差のあるレンズで歪曲画像座標に投影した位置(ud,vd)を観測位置とよぶ。 When a certain point in a three-dimensional space is photographed to obtain image coordinates, an ideal lens without distortion is projected at a position (u, v) represented by the image coordinates, and a lens having distortion aberration is represented by the distortion image coordinates. Projected to the represented position (u d , v d ). κ 1 and κ 2 are coefficients representing lens distortion. Also, the position (u, v) projected on the image coordinates with an ideal lens without distortion aberration is the predicted position, and the position (u d , v d ) projected on the distortion image coordinates with a lens with distortion aberration is the observation position. Call it.
図2(B)に示した正方形の格子を、半径方向歪曲収差があるレンズを用いたカメラで撮影した画像の例を図2(C)、(D)に示す。 FIGS. 2C and 2D show examples of images obtained by photographing the square lattice shown in FIG. 2B with a camera using a lens having radial distortion.
なお、歪曲収差があるレンズを用いたカメラで撮影した画像を歪曲画像とよぶ。 An image taken with a camera using a lens with distortion is called a distorted image.
図2(C)、(D)に示すような歪曲収差のあるレンズを用いたカメラの透視投影を[数5]のようにモデル化し、これに基づいたターゲットの予測位置と実際の観測位置との幾何学的距離(再投影誤差)の二乗和を最小化するようにパラメータを推定して、図2(B)に示すような実際の空間情報を歪曲収差のない理想的なレンズを用いたカメラによって透視投影した画像に補正する。このパラメータの推定において、[数6]によって表される非線形最小二乗法による推定をバンドル調整とよぶ。パラメータはカメラパラメータと、レンズの歪曲を表す係数であるκ1、κ2とから構成される。
ここで、歪曲補正関数の係数の推定、すなわちバンドル調整に使用する3次元座標値と2次元座標値とを対応付けた点群データは、3次元座標値が既知のターゲットを撮影し、画像面上に投影されたターゲットの2次元座標値を抽出し、3次元座標値と2次元座標値との各座標を対応付けることで得られる。 Here, the point group data in which the coefficient of the distortion correction function is estimated, that is, the three-dimensional coordinate value used for bundle adjustment and the two-dimensional coordinate value are associated with each other is obtained by photographing a target having a known three-dimensional coordinate value. It is obtained by extracting the two-dimensional coordinate value of the target projected above and associating the coordinates of the three-dimensional coordinate value and the two-dimensional coordinate value.
先ず、3次元座標値が既知のターゲットとして、例えば500mm角のクロスカーペットを撮影空間の床面に配置し、カメラでこの空間を撮影して歪曲画像を取得する。次に、この歪曲画像からクロスカーペットの格子模様のそれぞれの格子の角(格子点)をターゲットとして、この2次元座標値を複数抽出する。次に、撮影空間が存する3次元空間での原点を、例えば画像面上の中央手前のクロスカーペットの格子点などのように決め、各格子点の3次元座標値を求める。この3次元座標値と2次元座標値とから、それぞれ対応する格子点を対応付けた点群データを得る。また、カメラと床面との距離を適宜変更して画像の上下方向についても各格子点の3次元座標値と2次元座標値とから、それぞれ対応する格子点を対応付けた点群データを得る。 First, as a target having a known three-dimensional coordinate value, for example, a 500 mm square cross carpet is placed on the floor surface of the shooting space, and the space is shot with a camera to obtain a distorted image. Next, a plurality of these two-dimensional coordinate values are extracted from the distorted image with the corners (grid points) of the lattice patterns of the cross carpet as targets. Next, the origin in the three-dimensional space where the photographing space exists is determined, for example, as the lattice point of the cross carpet in front of the center on the image plane, and the three-dimensional coordinate value of each lattice point is obtained. From the three-dimensional coordinate value and the two-dimensional coordinate value, point group data in which corresponding lattice points are associated with each other is obtained. Further, by appropriately changing the distance between the camera and the floor, point cloud data in which the corresponding grid points are associated with each other is obtained from the three-dimensional coordinate values and the two-dimensional coordinate values of the respective grid points in the vertical direction of the image. .
この点群データをもとに非線形最適化手法によって歪曲補正関数の係数であるカメラの内部パラメータ、外部パラメータ、レンズの歪曲を表す係数を推定する。 Based on this point cloud data, the camera internal parameters, external parameters, and coefficients representing lens distortion are estimated by a nonlinear optimization method.
ここで、3次元座標値が既知のターゲットが投影される画像面について、正規化画像座標に投影されたターゲットが存在する領域を包含する円Cの領域と、歪曲収差のあるレンズで投影された歪曲画像座標に投影されたターゲットが存在する領域を包含する円Cdの領域とを考える。なお、ターゲットの存在する領域とは、多項式近似による歪曲補正関数において、多項式の係数を推定するに当たり非線形最小二乗法の解の収束を考慮して採用可能な点群データが存する領域をいう。 Here, an image plane onto which a target with a known three-dimensional coordinate value is projected is projected by a region of a circle C including a region where the target projected on the normalized image coordinates exists and a lens having distortion aberration. Consider an area of a circle Cd that includes an area where a target projected onto the distorted image coordinates exists. The region where the target exists is a region where point cloud data that can be adopted in consideration of the convergence of the solution of the nonlinear least square method in estimating the coefficient of the polynomial in the distortion correction function by the polynomial approximation exists.
正規化画像座標に投影されたターゲットが存在する領域を包含する円Cの半径Rmaxは、ワールド座標系で表された位置(Xw,Yw,Zw)から[数2]によってカメラ座標系で表された位置(X,Y,Z)に変換され、この位置(X,Y,Z)から[数1]によって正規化画像座標に投影されたターゲットの位置(x,y)から求められる半径(x2+y2)1/2の最大値である。すなわち、歪曲収差のレンズで投影される歪曲画像面上では、正規化画像座標に投影されたターゲットの位置(x,y)から[数3]を変形して求められる画像座標に投影されたターゲットの位置(u,v)が求められ、この位置(u,v)から[数5]によって求められる歪曲画像座標の位置(ud,vd)から求められる半径{(ud−cu)2+(vd−cv)2}1/2の最大値である。この歪曲収差のあるレンズで投影された歪曲画像座標に投影されたターゲットが存在する領域を包含する円Cdの半径{(ud−cu)2+(vd−cv)2}1/2を半径Rdmaxとよぶ。 The radius Rmax of the circle C including the region where the target projected on the normalized image coordinates exists is expressed in the camera coordinate system by [Expression 2] from the position (Xw, Yw, Zw) expressed in the world coordinate system. Radius (x, y) obtained from the position (x, y) of the target converted to the normalized image coordinates by [Equation 1] from this position (X, Y, Z). 2 + y 2 ) 1/2 maximum value. That is, on the distorted image plane projected by the distortion aberration lens, the target projected on the image coordinates obtained by transforming [Equation 3] from the target position (x, y) projected on the normalized image coordinates. The position (u, v) of the image is obtained, and the radius {(u d −c u ) obtained from the position (u d , v d ) of the distorted image coordinates obtained from [5] from this position (u, v). 2 + (v d −c v ) 2 } 1/2 maximum value. Radius {(u d −c u ) 2 + (v d −c v ) 2 } 1 / including the region where the target projected on the distorted image coordinates projected by the lens having this distortion aberration exists 2 is called a radius Rdmax.
また、正規化画像座標に投影されたターゲットの位置(x,y)から求められる半径(x2+y2)1/2を正規化画像座標上の像高Dとよび、歪曲を有するレンズで投影された歪曲画像座標の位置(ud,vd)から求められる半径{(ud−cu)2+(vd−cv)2}1/2を歪曲画像座標上の像高Ddとよぶ。 Further, the radius (x 2 + y 2 ) 1/2 obtained from the target position (x, y) projected on the normalized image coordinates is called the image height D on the normalized image coordinates, and is projected by a distorted lens. The radius {(u d −c u ) 2 + (v d −c v ) 2 } 1/2 obtained from the position (u d , v d ) of the distorted image coordinates obtained is set as the image height Dd on the distorted image coordinates. Call it.
ここで、[数6]によって表される歪曲補正関数の非線形最小二乗法による推定例を説明する。 Here, an example of estimating the distortion correction function represented by [Equation 6] by the nonlinear least square method will be described.
図3は、歪曲画像の一例を説明する図である。 FIG. 3 is a diagram illustrating an example of a distorted image.
図4は、図3に示された歪曲画像を多項式近似による歪曲補正関数によって補正した画像の一例を説明する図である。 FIG. 4 is a diagram for explaining an example of an image obtained by correcting the distorted image shown in FIG. 3 using a distortion correction function based on polynomial approximation.
図5は、図3に示された歪曲画像とターゲットが存在する領域を包含する円との関係を説明する図である。 FIG. 5 is a diagram for explaining the relationship between the distorted image shown in FIG. 3 and a circle including a region where the target exists.
図6は、多項式近似による歪曲補正関数と正規化画像座標に投影されたターゲットが存在する領域を包含する円との関係を説明する図である。 FIG. 6 is a diagram for explaining the relationship between a distortion correction function based on polynomial approximation and a circle including a region where a target projected on normalized image coordinates exists.
図3に示すように、歪曲画像では、3次元座標値が既知のターゲットとして、例えば500mm角のクロスカーペットを撮影空間の床面に配置して画像を取得すると、各格子の略直線状の各辺が歪んで曲線状に投影される。この画像の歪曲は画像の周辺部で大きく観察され、特に画像の左右下端で顕著に観察される。 As shown in FIG. 3, in a distorted image, when a three-dimensional coordinate value is known as a target, for example, when a 500 mm square cross carpet is placed on the floor surface of the shooting space and the image is acquired, The edges are distorted and projected in a curved line. This distortion of the image is greatly observed at the peripheral portion of the image, and particularly noticeable at the left and right lower ends of the image.
図4に示すように、歪曲画像について、[数6]によって表されるバンドル調整によって歪曲補正関数の係数を推定して補正した画像の中央部では、各格子の略直線状の各辺の歪曲が補正された自然な画像が得られる。しかしながら、図3に示された歪曲画像において歪曲が顕著な画像の左右下側では、格子の略直線状の辺の歪が十分に補正できていないことが観察できる。 As shown in FIG. 4, in the central portion of the image obtained by estimating the coefficient of the distortion correction function by the bundle adjustment represented by [Equation 6] and correcting the distortion image, the distortion of each side of the substantially straight line of each lattice is as shown in FIG. A natural image in which is corrected is obtained. However, in the distorted image shown in FIG. 3, it can be observed that the distortion of the substantially linear side of the lattice is not sufficiently corrected on the lower left and right sides of the image in which the distortion is significant.
なお、歪曲画像を歪曲補正関数によって補正した画像を補正画像とよぶ。 An image obtained by correcting a distorted image using a distortion correction function is called a corrected image.
図5に示すように、図4において歪曲補正関数の係数の推定にあたり点群データとして使用したターゲットとしての格子点+は歪曲画像の中央部に密集し、歪曲画像の周辺部にはターゲットとして使用できる格子点が存在しない。この格子点+が存在する領域を包含する領域が半径Rdmaxの円Cdであり、円Cdが正規化画像座標に投影される円Cの半径が半径Rmaxである。 As shown in FIG. 5, the lattice points + used as point cloud data in estimating the coefficients of the distortion correction function in FIG. 4 are concentrated in the central portion of the distorted image and used as targets in the peripheral portion of the distorted image. There are no grid points that can be created. The area including the area where the grid point + exists is a circle Cd having a radius Rdmax, and the radius of the circle C projected on the normalized image coordinates is the radius Rmax.
図6に示すように、正規化画像座標において、ターゲットは半径Rmaxの円C内に存在する。ターゲット◇が投影される正規化画像座標上の2次元座標値から求められる像高Dを破線Tで表すと、ターゲット◇は破線T上に投影される。実線Aは、多項式による歪曲補正関数を表し、ターゲット◇が存在する半径Rmaxの領域内では、多項式による歪曲補正関数が歪曲画像を適切に補正し、ターゲットの存在しない領域では、多項式による歪曲補正関数が歪曲画像を適切に補正できていないことが観察される。 As shown in FIG. 6, the target exists in a circle C having a radius Rmax in normalized image coordinates. When the image height D obtained from the two-dimensional coordinate values on the normalized image coordinates on which the target ◇ is projected is represented by a broken line T, the target ◇ is projected on the broken line T. A solid line A represents a distortion correction function based on a polynomial. The distortion correction function based on the polynomial appropriately corrects the distortion image in the area of the radius Rmax where the target ◇ exists, and the distortion correction function based on the polynomial in the area where the target does not exist. However, it is observed that the distorted image cannot be corrected appropriately.
なお、図6において横軸は正規化座標と光軸の交点とを原点とする半径(x2+y2)1/2の値、すなわち像高Dであり、縦軸は[数7]で表される歪曲画像座標における像高Ddと補正画像における像高Dとの変化率hである。
[数7]
変化率h=[{(ud−cu)2+(vd−cv)2}1/2−{(u−cu)2+(v−cv)2}1/2]/{(u−cu)2+(v−cv)2}1/2
=κ1×r2+κ2×r4
In FIG. 6, the horizontal axis is a value of radius (x 2 + y 2 ) ½ with the origin of the intersection of the normalized coordinate and the optical axis, that is, the image height D, and the vertical axis is expressed by [Equation 7]. The rate of change h between the image height Dd at the distorted image coordinates and the image height D in the corrected image.
[Equation 7]
Change rate h = [{(u d -c u) 2 + (v d -c v) 2} 1/2 - {(u-c u) 2 + (v-c v) 2} 1/2] / {(U−c u ) 2 + (v−c v ) 2 } 1/2
= Κ 1 × r 2 + κ 2 × r 4
図7は、本発明に係る画像の歪曲補正方法を説明するフローチャートである。 FIG. 7 is a flowchart for explaining an image distortion correction method according to the present invention.
図7に示すように、本実施形態に係る画像の歪曲補正方法のステップS1では、広角レンズを用いたカメラで撮影した画像(歪曲画像)から、歪曲補正を行う画素位置(udi,vdj)のうち、開始画素の位置(ud1,vd1)を指定する。 As shown in FIG. 7, in step S1 of the image distortion correction method according to the present embodiment, pixel positions (u di, v dj ) for performing distortion correction from an image (distortion image) captured by a camera using a wide-angle lens. ) Designates the position (u d1, v d1 ) of the start pixel.
次に、ステップS2では、画素位置(udi,vdj)が歪曲画像面上の点群データが存在する領域を包含する半径Rdmaxの円Cdに内包されるか否かを判断する。画素位置(udi,vdj)が半径Rdmaxの円Cdに内包される場合はステップS3に進む。その他の場合はステップS4に進む。 Next, in step S2, it is determined whether or not the pixel position (u di, v dj ) is included in a circle Cd having a radius Rdmax that includes an area where point cloud data exists on the distorted image plane. When the pixel position (u di, v dj ) is included in the circle Cd having the radius Rdmax, the process proceeds to step S3. In other cases, the process proceeds to step S4.
次に、ステップS3では、ステップS2で半径Rdmaxの円Cdに内包されると判断された画素位置(udi,vdj)について多項式近似による歪曲補正関数を適用して画像座標(ui,vj)を得る。 Next, in step S3, a distortion correction function by polynomial approximation is applied to the pixel position (u di, v dj ) determined to be included in the circle Cd having the radius Rdmax in step S2, and image coordinates (u i , v j ) is obtained.
次に、ステップS4では、ステップS2で半径Rdmaxの円Cdに内包されないと判断された画素位置(udi,vdj)について対数式近似による歪曲補正関数を適用して画像座標(ui,vj)を得る。 Next, in step S4, a distortion correction function based on logarithmic approximation is applied to the pixel position (u di, v dj ) determined not to be included in the circle Cd having the radius Rdmax in step S2, and image coordinates (u i , v j ) is obtained.
次に、ステップS5では、画素位置(udi,vdj)が終了画素の位置(udimax,vdjmax)か否かを判断する。画素位置(udi,vdj)が終了画素の位置(udimax,vdjmax)の場合は歪曲画像の補正を終了して補正画像を得る。その他の場合は、ステップS6に進む。 Next, in step S5, it is determined whether the pixel position (u di, v dj ) is the end pixel position (u dimax, v djmax ). When the pixel position (u di, v dj ) is the end pixel position (u dimax, v djmax ), the correction of the distorted image is finished to obtain a corrected image. In other cases, the process proceeds to step S6.
次に、ステップS6では、画素位置(udi,vdj)をu軸方向またはv軸方向へ1画素分進ませて、画素位置(udi+1,vdj)または画素位置(udi,vdj+1)とする。例えば、画像の大きさが横640pixel×縦480pixelの場合には、imax=640、jmax=480であり、ステップS6に処理が至る毎に順次(ud1,vd2)、(ud1,vd3)、(ud1,vd4)、・・・・・・、(ud640,vd478)、(ud640,vd479)、(ud640,vd480)のように1画素分進ませる。 Next, in step S6, the pixel position (u di, v dj ) is advanced by one pixel in the u-axis direction or the v-axis direction, and the pixel position (u di + 1, v dj ) or pixel position (u di, v dj + 1). ). For example, when the image size is horizontal 640 pixels × vertical 480 pixels, imax = 640 and jmax = 480, and (u d1, v d2 ), (u d1, v d3 ) are sequentially executed every time processing is performed in step S6. ), (U d1, v d4 ),..., (U d640, v d478 ), (u d640, v d479 ), (u d640, v d480 ), and so on.
歪曲補正関数を近似する式の係数の推定は、一般的には非線形最適化手法であるLevensberg−Marquardt法によって点群データから求める。 The estimation of the coefficient of the expression approximating the distortion correction function is generally obtained from the point cloud data by the Levenberg-Marquardt method which is a nonlinear optimization method.
多項式の係数は、[数2]、[数3]、[数5]によって表されるカメラの焦点距離fと、横方向の画素の物理的な間隔δuと、縦方向の画素の物理的な間隔δvと、画像中心の画像座標系における座標(cu,cv)と、3×3の回転行列Rと、3次元の平行移動ベクトルtと、レンズの歪曲を表す係数κ1、κ2とから構成され、[数6]によって表されるバンドル調整により求める。 The coefficients of the polynomial are the focal length f of the camera represented by [Equation 2], [Equation 3], and [Equation 5], the physical interval δu of the pixels in the horizontal direction, and the physical distance of the pixels in the vertical direction. The interval δv, the coordinates (c u , c v ) in the image coordinate system at the center of the image, the 3 × 3 rotation matrix R, the three-dimensional translation vector t, and the coefficients κ 1 and κ 2 representing lens distortion. And is obtained by bundle adjustment represented by [Equation 6].
他方、対数式の係数は、[数2]、[数3]によって表されるカメラの焦点距離fと、横方向の画素の物理的な間隔δuと、縦方向の画素の物理的な間隔δvと、画像中心の画像座標系における座標(cu,cv)と、3×3の回転行列Rと、3次元の平行移動ベクトルtとともに、[数8]によって表されるレンズの歪曲を表す係数κln1、κln2とから構成され、バンドル調整により求める。 On the other hand, the coefficients of the logarithm are as follows: the focal length f of the camera represented by [Equation 2] and [Equation 3], the physical interval δu of the horizontal pixels, and the physical interval δv of the vertical pixels. Along with the coordinates (c u , c v ) in the image coordinate system at the center of the image, the 3 × 3 rotation matrix R, and the three-dimensional translation vector t, the distortion of the lens represented by [Equation 8] is expressed. consists factor kappa ln1, kappa ln2 Prefecture, determined by bundle adjustment.
広角レンズの歪曲収差は、対数式によって[数8]にようにモデル化できる。
対数式近似による歪曲補正関数では、対数式によって歪曲収差のあるレンズを用いたカメラの透視投影を[数8]のようにモデル化し、これに基づいたターゲットの予測位置と実際の観測位置との幾何学的距離(再投影誤差)の二乗和を最小化するように係数κln1、κln2を推定する。このパラメータ推定について、[数9]によって表される最小二乗法による推定を行う。
図8は、本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数における対数式の係数の推定に用いる点群データの存する領域のしきい半径値Rthと、対数式の係数を推定する方法を説明するフローチャートである。 FIG. 8 shows the threshold radius value Rth of the region where the point cloud data is used for the estimation of the coefficient of the logarithmic expression in the distortion correction function by logarithmic approximation in the image distortion correction method according to the present invention, and the coefficient of the logarithmic expression. It is a flowchart explaining the method to estimate.
図8に示すように、ステップS11では、[数6]によって表される非線形最小二乗法によって多項式の係数の推定を行い、[数2]、[数3]、[数5]によって表される多項式の係数である焦点距離fと、横方向の画素の物理的な間隔δuと、縦方向の画素の物理的な間隔δvと、画像中心の画像座標系における座標(cu,cv)と、3×3の回転行列Rと、3次元の平行移動ベクトルtと、レンズの歪曲を表す係数κ1、κ2とを求める。 As shown in FIG. 8, in step S11, the coefficient of the polynomial is estimated by the nonlinear least square method expressed by [Expression 6], and expressed by [Expression 2], [Expression 3], and [Expression 5]. The focal length f, which is a coefficient of the polynomial, the physical distance δu between the horizontal pixels, the physical distance δv between the vertical pixels, and the coordinates (c u , c v ) in the image coordinate system at the image center A 3 × 3 rotation matrix R, a three-dimensional translation vector t, and coefficients κ 1 and κ 2 representing lens distortion are obtained.
次に、ステップS12では、しきい半径値Rthを0とする。 Next, in step S12, the threshold radius value Rth is set to zero.
次に、ステップS13では、しきい半径値Rthから半径Rmaxの領域に存する点群データを用いて、[数9]によって表される最小二乗法によって対数式の係数の推定を行い、[数8]によって表される対数式の係数κln1、κln2を求める。なお、焦点距離fと、横方向の画素の物理的な間隔δuと、縦方向の画素の物理的な間隔δvと、画像中心の画像座標系における座標(cu,cv)と、3×3の回転行列Rと、3次元の平行移動ベクトルtとはステップS11で[数6]によって表される非線形最小二乗法によって求められている。 Next, in step S13, the coefficient of the logarithm is estimated by the least square method represented by [Equation 9] using the point cloud data existing in the region from the threshold radius value Rth to the radius Rmax, and [Equation 8]. logarithmically coefficient kappa ln1 represented by, determining the kappa ln2. Note that the focal length f, the physical interval δu between the horizontal pixels, the physical interval δv between the vertical pixels, the coordinates (c u , c v ) in the image coordinate system at the center of the image, and 3 × The rotation matrix R of 3 and the three-dimensional translation vector t are obtained by the nonlinear least square method represented by [Equation 6] in step S11.
次に、ステップS14では、最小二乗法の決定係数ε2としきい値ε2thとを比較する。決定係数ε2がしきい値ε2th以下の場合は、このときのしきい半径値Rthにおける対数式の係数κln1、κln2を採用して処理を終了する。その他の場合は、ステップS15に進む。決定係数ε2のしきい値ε2thは、歪曲補正関数によって補正画像の歪曲の良否を考慮して設定するものであり、例えばしきい値ε2th=0.001程度に設定する。 Next, in step S14, the determination coefficient ε 2 of the least square method and the threshold value ε 2 th are compared. If the coefficient of determination epsilon 2 is less than or equal to the threshold epsilon 2 th, the coefficient pairs formula in threshold radius value Rth at this time kappa ln1, and ends the adoption and processing kappa ln2. In other cases, the process proceeds to step S15. The threshold value ε 2 th of the determination coefficient ε 2 is set in consideration of the quality of the corrected image by the distortion correction function. For example, the threshold value ε 2 th is set to about 0.001.
次に、ステップS15では、しきい半径値Rthに任意の値ΔRthを加算して、再度、ステップS13へ戻る。任意の値ΔRthは、0より大きく正規化画像座標上の焦点距離である1以下であることが望ましく、例えば0.2〜0.3程度が好適である。 Next, in step S15, an arbitrary value ΔRth is added to the threshold radius value Rth, and the process returns to step S13 again. The arbitrary value ΔRth is preferably greater than 0 and equal to or less than 1 which is the focal length on the normalized image coordinates, and is preferably about 0.2 to 0.3, for example.
図9から図14は、本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数の係数を推定するに当たり使用する点群データのしきい半径値Rthと、補正された画像との関係の具体例を説明する図である。 FIGS. 9 to 14 show the threshold radius value Rth of the point cloud data used for estimating the coefficient of the distortion correction function by logarithmic approximation in the image distortion correction method according to the present invention, the corrected image, It is a figure explaining the specific example of these relationships.
図9から図14の(A)は対数式近似による歪曲補正関数と、対数式の係数を推定するに当たり使用する点群データのしきい半径値Rthとの関係を説明する図であり、(B)はしきい半径値Rth毎に推定した歪曲補正関数によって補正された画像を示す図であり、(C)は(B)を変換して得た俯瞰図である。 9A to 14A are diagrams for explaining the relationship between the distortion correction function by logarithmic approximation and the threshold radius value Rth of the point cloud data used for estimating the coefficient of the logarithmic equation. ) Is a diagram showing an image corrected by a distortion correction function estimated for each threshold radius value Rth, and (C) is an overhead view obtained by converting (B).
なお、図9から図14の(A)において横軸は正規化座標と光軸の交点とを原点とする半径(x2+y2)1/2の値、すなわち像高Dであり、縦軸は[数7]および[数10]で表される歪曲画像座標における像高Ddと補正画像における像高Dとの変化率hである。
[数10]
変化率h=κln1×ln(r2)+κln2
9A to 14A, the horizontal axis is a value of radius (x 2 + y 2 ) 1/2 with the origin at the intersection of the normalized coordinates and the optical axis, that is, the image height D, and the vertical axis Is the rate of change h between the image height Dd at the distorted image coordinates represented by [Equation 7] and [Equation 10] and the image height D in the corrected image.
[Equation 10]
Rate of change h = κ ln1 × ln (r 2 ) + κ ln2
図9から図14の(A)に示すように、しきい半径値Rthを0から1.25まで0.25毎に変化させて対数式の係数を推定する。図9(A)は、しきい半径値Rth=0.0における対数式による近似とターゲット◇、□との関係を示した図であり、図10(A)は、しきい半径値Rth=0.25における対数式による近似とターゲット◇、□との関係を示した図であり、図11(A)は、しきい半径値Rth=0.50における対数式による近似とターゲット◇、□との関係を示した図であり、図12(A)は、しきい半径値Rth=0.75における対数式による近似とターゲット◇、□との関係を示した図であり、図13(A)は、しきい半径値Rth=1.00における対数式による近似とターゲット◇、□との関係を示した図であり、図14(A)は、しきい半径値Rth=1.25における対数式による近似とターゲット◇、□との関係を示した図である。ターゲット□は、対数式の係数を推定するに当たり使用する点群データであり、その像高Dは、しきい半径値Rth≦像高D≦半径Rmaxの関係がある。 As shown in FIG. 9A to FIG. 14A, the coefficient of the logarithmic formula is estimated by changing the threshold radius value Rth from 0 to 1.25 every 0.25. FIG. 9A is a diagram showing the relationship between the approximation by the logarithmic expression at the threshold radius value Rth = 0.0 and the targets ◇ and □, and FIG. 10A is the threshold radius value Rth = 0. .25 is a diagram showing the relationship between the approximation by the logarithmic expression and the targets ◇ and □, and FIG. 11A shows the approximation by the logarithmic expression at the threshold radius value Rth = 0.50 and the targets ◇ and □. FIG. 12 (A) is a diagram showing the relationship between approximation by the logarithmic expression at the threshold radius value Rth = 0.75 and the targets ◇ and □, and FIG. 13 (A) is a diagram showing the relationship. FIG. 14A is a diagram showing the relationship between the approximation by the logarithmic expression at the threshold radius value Rth = 1.00 and the targets ◇ and □, and FIG. 14A is the logarithmic expression at the threshold radius value Rth = 1.25. It is the figure which showed the relation between approximation and target ◇ and □The target □ is point cloud data used for estimating the coefficient of the logarithmic expression, and the image height D has a relationship of threshold radius value Rth ≦ image height D ≦ radius Rmax.
図13(A)に示すように、しきい半径値Rth=1.00のときに決定係数ε2=0.0003となり、しきい値ε2th=0.001以下となっている。このとき、対数式の係数κln1、κln2は、それぞれ−0.171、−0.1931となっている。この係数によって得られる対数式は、ターゲット◇、□の存する像高D=0から2.35の領域外、すなわち像高D=2.35から5程度の範囲で歪曲画像を補正する。補正画像が図9から図14の(B)に示されている。図9から図14の(C)に示すように、補正画像から変換して得られた俯瞰図を比較すると、画像の左右下部、すなわち、撮影された空間においてはカメラ近傍の左右の空間において、決定係数がしきい値ε2thより大きい歪曲補正関数で得られた補正画像に比べて、決定係数がしきい値ε2th以下の歪曲補正関数で得られた補正画像のほうが、より理想的なレンズで得られる透視投影図に近いことが分かる。 As shown in FIG. 13A, the determination coefficient ε 2 = 0.0003 when the threshold radius value Rth = 1.00, and the threshold value ε 2 th = 0.001 or less. At this time, the coefficient of the logarithmic type kappa ln1, kappa ln2 are respectively -0.171, a -0.1931. The logarithmic expression obtained by this coefficient corrects a distorted image outside the region of the image height D = 0 to 2.35 where the targets ◇ and □ exist, that is, in the range of the image height D = 2.35 to 5. The corrected image is shown in FIGS. 9 to 14B. As shown in (C) of FIG. 9 to FIG. 14, when comparing the overhead views obtained by converting from the corrected image, in the left and right lower parts of the image, that is, in the left and right spaces near the camera in the captured space, the coefficient of determination is compared with the corrected image obtained by the threshold epsilon 2 th is greater than the distortion correction function, better coefficient of determination is obtained corrected image following distortion correction function threshold epsilon 2 th is more ideal It can be seen that this is close to the perspective projection obtained with a simple lens.
なお、非線形最適化において、歪曲画像の周辺部を点群データに含めると最適化が収束しなくなる。このため、点群データを抽出する領域を歪曲画像の中央部に限定している。この領域の限定は経験的な値であり、本例では正規化画像座標における像高D=2.35の点まで与えている。すなわちRmax=2.35となる。この値は、使用するレンズの焦点距離、歪曲度合いによって変わるため一意には決まらない。 In the nonlinear optimization, if the peripheral portion of the distorted image is included in the point cloud data, the optimization does not converge. For this reason, the area | region which extracts point cloud data is limited to the center part of a distorted image. The limitation of this area is an empirical value, and in this example, the point up to the image height D = 2.35 in the normalized image coordinates is given. That is, Rmax = 2.35. Since this value varies depending on the focal length and the degree of distortion of the lens used, it is not uniquely determined.
すなわち、本実施形態に係る画像の歪曲補正方法は、歪曲補正関数の係数を推定するに当たって使用する3次元座標値が既知のターゲットが歪曲画像に投影される領域を包含する円Cdに内包される領域、すなわち、カメラの光軸と歪曲画像面との交点を中心とする半径Rdmaxの円Cdに内包される領域では、非線形最小二乗法によって係数を求めた多項式近似による歪曲補正関数を適用して歪曲画像を補正し、円Cdに内包されない領域では、ターゲットが正規化画像座標に投影された座標の像高Dが、しきい半径値Rth≦像高D≦半径Rmaxの範囲に存する点群データをもとに最小二乗法によって係数を求めた対数式近似による歪曲補正関数を適用して歪曲画像を補正して補正画像を得る。 In other words, the image distortion correction method according to the present embodiment is included in a circle Cd including a region where a target whose three-dimensional coordinate values used for estimating the coefficient of the distortion correction function are known is projected onto the distortion image. In a region, that is, a region included in a circle Cd having a radius Rdmax centered on the intersection of the optical axis of the camera and the distorted image plane, a distortion correction function by polynomial approximation obtained by a nonlinear least square method is applied. In a region where the distorted image is corrected and not included in the circle Cd, point cloud data in which the image height D of the coordinates where the target is projected onto the normalized image coordinates is within the range of threshold radius value Rth ≦ image height D ≦ radius Rmax A corrected image is obtained by correcting a distorted image by applying a distortion correction function by logarithmic approximation obtained by a least square method based on the above.
図15(A)は本発明に係る画像の歪曲補正方法による補正画像の一例を示す図であり、(B)は(A)の補正画像を変換して得た俯瞰図であり、(C)は(B)の俯瞰図の光軸を画像の左側に偏らせた俯瞰図である。 FIG. 15A is a view showing an example of a corrected image by the image distortion correction method according to the present invention, FIG. 15B is an overhead view obtained by converting the corrected image of FIG. (B) is an overhead view in which the optical axis of the overhead view is biased to the left side of the image.
図16(A)は多項式による歪曲補正関数を用いた歪曲補正方法による補正画像の一例を示す図であり、(B)は(A)の補正画像を変換して得た俯瞰図であり、(C)は(B)の俯瞰図の光軸を画像の左側に偏らせた俯瞰図である。 FIG. 16A is a diagram illustrating an example of a corrected image by a distortion correction method using a polynomial distortion correction function, and FIG. 16B is an overhead view obtained by converting the corrected image of FIG. C) is an overhead view in which the optical axis of the overhead view of (B) is biased to the left side of the image.
図15(A)および(B)と図16(A)および(B)とを比べると、本実施形態に係る画像の歪曲補正方法によれば、歪曲画像の周辺部、特に画像の左右下側の領域では、補正の精度が向上していることが明らかに観察できる。例えば、本実施形態に係る歪曲補正方法をバックガイドモニタに使用することで、自車の左右側方に近接した駐車場の白線や隣接するレーンに駐車された車両を歪曲の補正された自然な画像で確認することができる。 15A and 15B are compared with FIGS. 16A and 16B, according to the image distortion correction method according to the present embodiment, the periphery of the distorted image, particularly the lower left and right sides of the image. In this area, it can be clearly observed that the accuracy of correction is improved. For example, by using the distortion correction method according to the present embodiment for a back guide monitor, a vehicle parked in a white line of a parking lot adjacent to the left or right side of the own vehicle or an adjacent lane is corrected for distortion. Can be confirmed with images.
また、図15(C)と図16(C)とを比べると、バックガイドモニタに用いられるカメラが、自車の中央に配置できず、左右いずれかの方向にシフトさせて取り付けた場合、例えば自車の後方右側に寄せて取り付けた場合であっても、カメラから遠い自車の後方左側、すなわち、画像の右下側について、自車に近接した駐車場の白線や隣接するレーンに駐車された車両をより広範囲に歪曲の補正された自然な画像で確認することができる。 Further, when comparing FIG. 15C and FIG. 16C, when the camera used for the back guide monitor cannot be placed in the center of the own vehicle and is mounted shifted in either the left or right direction, for example, Even if it is attached to the rear right side of the vehicle, it is parked on the white line or adjacent lane of the parking lot near the vehicle on the rear left side of the vehicle far from the camera, that is, the lower right side of the image. The vehicle can be confirmed with a natural image with distortion corrected in a wider range.
本実施形態に係る画像の歪曲補正方法によれば、歪曲を伴うレンズを用いたカメラによって撮影した画像について、歪曲補正を適切に行うことができる。 According to the image distortion correction method according to the present embodiment, distortion correction can be appropriately performed on an image captured by a camera using a lens with distortion.
図17は、本発明の実施形態に係る画像の歪曲補正装置の構成を示すブロック図である。 FIG. 17 is a block diagram illustrating a configuration of an image distortion correction apparatus according to an embodiment of the present invention.
図17に示すように、本実施形態に係る画像の歪曲補正装置1は、画像を撮影する撮影手段2と、撮影手段2によって撮影された画像の歪曲を補正する画像処理手段3とを備える。また、画像の歪曲補正装置1は、画像処理手段3によって歪曲が補正された画像を表示する表示手段4を備えることができる。すなわち、表示手段4は、画像処理手段3によって歪曲が補正された画像を表示するものである。表示手段4に換えて、歪曲が補正された画像を表示することなく次段の処理手段に供するように構成してもよい。
As shown in FIG. 17, the image
画像処理手段3は、歪曲補正部5を備える。歪曲補正部5は、本実施形態に係る画像の歪曲補正方法、すなわち、撮影手段2によって撮影された画像について、歪曲補正関数の係数を推定するに当たって使用する3次元座標値が既知のターゲットが歪曲画像に投影される領域を包含する円Cdに内包される領域、すなわち、撮影手段2の光軸と歪曲画像面との交点を中心とする半径Rdmaxの円Cdに内包される領域では、非線形最小二乗法によって係数を求めた多項式近似による歪曲補正関数を適用して歪曲画像を補正し、円Cdに内包されない領域では、ターゲットが正規化画像座標に投影された座標の像高Dが、しきい半径値Rth≦像高D≦半径Rmaxの範囲に存する点群データをもとに最小二乗法によって係数を求めた対数式近似による歪曲補正関数を適用して画像の歪曲を補正する。
The
図15(A)および(B)と図16(A)および(B)とを比べると、本実施形態に係る歪曲補正装置1によれば、歪曲画像の周辺部、特に画像の左右下側の領域では、補正の精度が向上していることが明らかに観察できる。例えば、本実施形態に係る歪曲補正方法をバックガイドモニタに使用することで、自車の左右側方に近接した駐車場の白線や隣接するレーンに駐車された車両を歪曲の補正された自然な画像で確認することができる。
15A and 15B are compared with FIGS. 16A and 16B, according to the
また、図15(C)と図16(C)とを比べると、バックガイドモニタに用いられるカメラが、自車の中央に配置できず、左右いずれかの方向にシフトさせて取り付けた場合、例えば自車の後方右側に寄せて取り付けた場合であっても、カメラから遠い自車の後方左側、すなわち、画像の右下側について、自車に近接した駐車場の白線や隣接するレーンに駐車された車両をより広範囲に歪曲の補正された自然な画像で確認することができる。 Further, when comparing FIG. 15C and FIG. 16C, when the camera used for the back guide monitor cannot be placed in the center of the own vehicle and is mounted shifted in either the left or right direction, for example, Even if it is attached to the rear right side of the vehicle, it is parked on the white line or adjacent lane of the parking lot near the vehicle on the rear left side of the vehicle far from the camera, that is, the lower right side of the image. The vehicle can be confirmed with a natural image with distortion corrected in a wider range.
本実施形態に係る画像の歪曲補正装置によれば、歪曲を伴うレンズを用いたカメラによって撮影した画像について、歪曲補正を適切に行うことができる。 According to the image distortion correction apparatus according to the present embodiment, distortion correction can be appropriately performed on an image captured by a camera using a lens with distortion.
なお、本発明に係る画像の歪曲補正方法および歪曲補正装置は、車両等の移動体に搭載される装置に限定されるものではなく、広角レンズのカメラを用いた種々の画像処理装置に適用することができる。 The image distortion correction method and the distortion correction apparatus according to the present invention are not limited to apparatuses mounted on a moving body such as a vehicle, but are applied to various image processing apparatuses using a wide-angle lens camera. be able to.
1 歪曲補正装置
2 撮影手段
3 画像処理手段
4 表示手段
5 歪曲補正部
DESCRIPTION OF
Claims (1)
歪曲補正関数の係数の推定に使用するターゲットが前記画像面に投影された領域を包含する前記カメラの光軸と前記画像面との交点を中心とする円に内包される領域では、非線形最小二乗法によって係数を求めた多項式近似による歪曲補正関数を適用して画像の歪曲を補正し、
前記円に内包されない領域では、最小二乗法によって係数を求めた対数式近似による歪曲補正関数を適用して画像の歪曲を補正することを特徴とする画像の歪曲補正方法。 In a distortion correction method for correcting distortion of an image shot by a camera using a lens having distortion,
In a region included in a circle whose center is the intersection of the optical axis of the camera and the image plane, the target used for estimating the coefficient of the distortion correction function includes the region projected on the image plane. Apply a distortion correction function by polynomial approximation to find the coefficient by multiplication to correct image distortion,
An image distortion correction method for correcting image distortion by applying a distortion correction function by logarithmic approximation obtained by a least square method in an area not included in the circle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007302215A JP4872890B2 (en) | 2007-11-21 | 2007-11-21 | Image distortion correction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007302215A JP4872890B2 (en) | 2007-11-21 | 2007-11-21 | Image distortion correction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009130546A JP2009130546A (en) | 2009-06-11 |
JP4872890B2 true JP4872890B2 (en) | 2012-02-08 |
Family
ID=40821047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007302215A Expired - Fee Related JP4872890B2 (en) | 2007-11-21 | 2007-11-21 | Image distortion correction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4872890B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011049733A (en) * | 2009-08-26 | 2011-03-10 | Clarion Co Ltd | Camera calibration device and video distortion correction device |
JP5448056B2 (en) * | 2009-09-03 | 2014-03-19 | スズキ株式会社 | Distorted image correction apparatus and method |
JP5555101B2 (en) * | 2010-08-31 | 2014-07-23 | 株式会社日立情報通信エンジニアリング | Image correction apparatus, corrected image generation method, and corrected image generation program |
KR102063984B1 (en) * | 2013-01-28 | 2020-01-08 | 엘지디스플레이 주식회사 | Apparatus for inspecting defect and method for correcting distortion the same |
JP6070262B2 (en) * | 2013-02-25 | 2017-02-01 | スズキ株式会社 | Image display device |
KR101705877B1 (en) * | 2015-05-22 | 2017-02-13 | 라온피플 주식회사 | Method and apparatus for adaptive image correction |
WO2016195123A1 (en) * | 2015-05-29 | 2016-12-08 | (주)에프엑스기어 | Apparatus and method for processing wide viewing angle image |
JP6645140B2 (en) * | 2015-11-27 | 2020-02-12 | 株式会社明電舎 | Image calibration apparatus and calibration method |
CN109961410B (en) * | 2019-02-28 | 2022-12-20 | 中航华东光电有限公司 | Optimized image pre-distortion method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06153065A (en) * | 1992-11-11 | 1994-05-31 | Olympus Optical Co Ltd | Image pickup device |
JPH11252431A (en) * | 1998-02-27 | 1999-09-17 | Kyocera Corp | Digital image-pickup device provided with distortion correction function |
JP3668654B2 (en) * | 1999-11-01 | 2005-07-06 | 株式会社大林組 | Distortion correction method |
JP2006127083A (en) * | 2004-10-28 | 2006-05-18 | Aisin Seiki Co Ltd | Image processing method, and image processor |
JP4250620B2 (en) * | 2005-07-29 | 2009-04-08 | キヤノン株式会社 | Information processing method and apparatus |
-
2007
- 2007-11-21 JP JP2007302215A patent/JP4872890B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009130546A (en) | 2009-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4872890B2 (en) | Image distortion correction method | |
JP5108605B2 (en) | Driving support system and vehicle | |
JP5455124B2 (en) | Camera posture parameter estimation device | |
CN105096329B (en) | Method for accurately correcting image distortion of ultra-wide-angle camera | |
EP2770728A2 (en) | Image distortion correction of a camera with a rolling shutter | |
CN105306805B (en) | Apparatus and method for correcting image distortion of camera for vehicle | |
JP4414661B2 (en) | Stereo adapter and range image input device using the same | |
CN113196007B (en) | Camera system applied to vehicle | |
JP2009085651A (en) | Image processing system | |
CN110660105A (en) | Calibration parameter optimization method and device for panoramic looking-around system | |
CN113345032B (en) | Initialization map building method and system based on wide-angle camera large distortion map | |
KR101394770B1 (en) | Image stabilization method and system using curve lane model | |
CN107492080B (en) | Calibration-free convenient monocular head image radial distortion correction method | |
JP2006127083A (en) | Image processing method, and image processor | |
JP2013024712A (en) | Method and system for calibrating multiple camera | |
CN111862225A (en) | Image calibration method, calibration system and vehicle with system | |
JP2020150427A (en) | Imaging device, imaging optical system, and moving object | |
KR102466305B1 (en) | System and method for compensating avm tolerance | |
JP7303064B2 (en) | Image processing device and image processing method | |
JP5305750B2 (en) | Vehicle periphery display device and display method thereof | |
CN112150547A (en) | Method and device for determining pose of vehicle body and look-around vision odometer system | |
CN111260538A (en) | Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera | |
US20220222947A1 (en) | Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings | |
JP7311407B2 (en) | Posture estimation device and posture estimation method | |
JP7207889B2 (en) | Range finder and in-vehicle camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111025 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111107 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |