JP4872890B2 - Image distortion correction method - Google Patents

Image distortion correction method Download PDF

Info

Publication number
JP4872890B2
JP4872890B2 JP2007302215A JP2007302215A JP4872890B2 JP 4872890 B2 JP4872890 B2 JP 4872890B2 JP 2007302215 A JP2007302215 A JP 2007302215A JP 2007302215 A JP2007302215 A JP 2007302215A JP 4872890 B2 JP4872890 B2 JP 4872890B2
Authority
JP
Japan
Prior art keywords
image
distortion
distortion correction
correction function
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007302215A
Other languages
Japanese (ja)
Other versions
JP2009130546A (en
Inventor
整 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Co Ltd
Original Assignee
Suzuki Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Co Ltd filed Critical Suzuki Motor Co Ltd
Priority to JP2007302215A priority Critical patent/JP4872890B2/en
Publication of JP2009130546A publication Critical patent/JP2009130546A/en
Application granted granted Critical
Publication of JP4872890B2 publication Critical patent/JP4872890B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image distortion correcting method for correcting distortion about an image photographed by a camera using a lens with a distortion aberration. <P>SOLUTION: In a step S2, it is determined whether a certain pixel position (u<SB>di</SB>, v<SB>dj</SB>) of the image photographed by the camera using a lens with a distortion aberration is included in a circle Cd including an area where point group data on an image surface are present. In a step S3, an image coordinate (u<SB>i</SB>, v<SB>j</SB>) is obtained by applying a distortion correction function by polynomial approximation about the pixel position (u<SB>di</SB>, v<SB>dj</SB>) determined to be included in the circle Cd. In a step S4, an image coordinate (u<SB>i</SB>, v<SB>j</SB>) is obtained by applying a distortion correction function by logarithmic approximation about the pixel position (u<SB>di</SB>, v<SB>dj</SB>) determined not to be included in the circle Cd. <P>COPYRIGHT: (C)2009,JPO&amp;INPIT

Description

本発明は、歪曲収差のあるレンズを用いたカメラによって撮影された画像について、歪曲を補正する画像の歪曲補正方法に関する。   The present invention relates to an image distortion correction method for correcting distortion of an image taken by a camera using a lens having distortion aberration.

一般的に、広角レンズを用いたカメラによって撮影した画像は歪曲を伴うので、撮影対象を正確に把握するには、歪曲を補正するための画像処理が必要となる。例えば、自動車の後方や側方等の視界を車室内で表示する種々の装置が提案され、市販されている。このような装置では、表示画像を見やすくするために種々の対策が講じられている。カメラに広角レンズが用いられている場合には、表示画像は歪曲を伴うため、これに対する対策が必要となる。例えば、駐車支援装置に関し、駐車案内のために自車の走行予想軌跡を撮影画像に重畳して表示する通称バックガイドモニタが市販されている。この中には、表示装置上に描画する走行予想軌跡の位置および形状を、レンズの歪曲特性に合わせて意図的に歪ませるように処理する装置もある。   In general, an image captured by a camera using a wide-angle lens is distorted, and thus image processing for correcting the distortion is necessary to accurately grasp the photographic subject. For example, various devices for displaying the field of view of the back and sides of an automobile in the passenger compartment have been proposed and are commercially available. In such an apparatus, various measures are taken to make the display image easy to see. When a wide-angle lens is used in the camera, the display image is distorted, and measures for this need to be taken. For example, regarding a parking assistance device, a so-called back guide monitor is commercially available that displays a predicted travel locus of a host vehicle superimposed on a captured image for parking guidance. Among these devices, there is also a device that processes the position and shape of the predicted travel locus drawn on the display device so as to be intentionally distorted in accordance with the distortion characteristics of the lens.

このような装置に関連し、特許文献1には、車両の予想軌跡表示装置が開示されており、広角レンズによる歪曲を補正する方法が魚眼変換として提案されている。   In relation to such an apparatus, Patent Document 1 discloses a predicted vehicle trajectory display apparatus, and a method for correcting distortion by a wide-angle lens is proposed as fish-eye conversion.

また、特許文献2には、画像の歪曲を補正する方法が開示されており、歪曲補正関数としてn次のテイラー展開、すなわち、多項式近似による方法が提案されている。   Patent Document 2 discloses a method for correcting image distortion, and an n-th order Taylor expansion, that is, a method by polynomial approximation is proposed as a distortion correction function.

さらに、特許文献3には、広角レンズを用いたカメラで撮影した画像の歪曲を補正する方法が開示されており、歪曲補正関数としてMorgan、MercerおよびFlodinの頭文字から成るMMFモデル(Morgan−Mercer−Flodinモデル)による方法が提案されている。   Further, Patent Document 3 discloses a method for correcting distortion of an image taken by a camera using a wide-angle lens, and an MMF model (Morgan-Mercer) including an acronym of Morgan, Mercer, and Flodin as a distortion correction function. -Flodin model) has been proposed.

多項式近似による歪曲補正関数の係数は、実寸法(3次元座標値)が既知のターゲット(教示点)を配置した空間をカメラによって撮影し、この撮影した画像に投影されたターゲットの2次元座標値を抽出し、3次元座標値と2次元座標値とを対応付けた点群データをもとに非線形最適化手法によって推定する。
特開昭64−14700号公報 特開2001−133223号公報 特開2006−127083号公報
The coefficient of the distortion correction function based on the polynomial approximation is obtained by photographing a space in which a target (teaching point) having a known actual size (three-dimensional coordinate value) is arranged with a camera, and the two-dimensional coordinate value of the target projected on the photographed image. And is estimated by a non-linear optimization method based on the point cloud data in which the three-dimensional coordinate value and the two-dimensional coordinate value are associated with each other.
JP-A 64-14700 JP 2001-133223 A JP 2006-127083 A

特許文献1では、指数関数により広角レンズの歪曲特性をモデル化しているが、非球面で作られたレンズの特性を精度よく補正することには言及されていない。また、実際のレンズの歪曲特性に対し精度よく画像の歪曲を補正する方法については開示されていない。   In Patent Document 1, the distortion characteristics of a wide-angle lens are modeled by an exponential function, but there is no mention of accurately correcting the characteristics of a lens made of an aspheric surface. Also, there is no disclosure of a method for accurately correcting image distortion with respect to actual lens distortion characteristics.

特許文献2、3では、3次元座標値が既知のターゲットを配置した空間と、この空間を撮影した画像から抽出したターゲットの2次元座標値との点群データをもとに非線形最適化手法を用いて歪曲補正関数の係数の推定している。   In Patent Documents 2 and 3, a nonlinear optimization method is used based on point cloud data of a space in which a target having a known three-dimensional coordinate value is placed and a target two-dimensional coordinate value extracted from an image of the space. It is used to estimate the coefficient of the distortion correction function.

しかし、広角レンズを用いたカメラは視野角が広いため、撮影する空間全体にターゲットを配置して画像を撮影することは困難である。すなわち、広角レンズを用いたカメラで撮影した画像では、ターゲットの存在する空間が画像の中央部に偏り、歪曲補正関数の係数の推定に用いる点群データも画像の中央部に偏ることになる。また、撮影する空間全体にターゲットを配置した画像を撮影して、画像の周辺部における点群データを得ることが出来たとしても、広角レンズでは歪曲収差が大きいため、歪曲補正関数の係数の推定に当たり解の収束が得られない場合がある。そうすると、歪曲補正関数の係数の推定に用いる点群データは、画像の中央部に偏ることになる。   However, since a camera using a wide-angle lens has a wide viewing angle, it is difficult to shoot an image by arranging a target in the entire shooting space. That is, in an image taken with a camera using a wide-angle lens, the space where the target exists is biased toward the center of the image, and the point cloud data used for estimating the coefficient of the distortion correction function is also biased toward the center of the image. In addition, even if you can shoot an image with the target placed in the entire space to obtain point cloud data at the periphery of the image, the wide-angle lens has a large distortion aberration, so the coefficient of the distortion correction function is estimated. In some cases, the convergence of the solution cannot be obtained. Then, the point cloud data used for estimating the coefficient of the distortion correction function is biased toward the center of the image.

特許文献2、3では、多項式近似による歪曲補正関数について、多項式の係数の推定に用いられる点群データが存する領域内の補正、すなわち内挿の精度を向上する方法が開示されているが、多項式の係数の推定に用いられる点群データが存しない領域の補正、すなわち外挿の精度を向上することはできず、かつ、この領域の補正方法について開示されるものではない。   Patent Documents 2 and 3 disclose a method for improving the accuracy of interpolation within a region where point group data used for estimating the coefficients of a polynomial exists, that is, the accuracy of interpolation, for a distortion correction function by polynomial approximation. It is not possible to improve the correction of the area where the point cloud data used for the estimation of the coefficient does not exist, that is, the accuracy of extrapolation, and no correction method for this area is disclosed.

例えばバックガイドモニタに用いられるカメラの画像の中央部は、車両の位置合せや衝突防止の観点から、運転者にとって距離感の把握し易い歪曲の少ない画像となっている。また、この画像の周辺部は、周囲に存する他の車両や人の様子を把握し易いように広い視野を確保できる歪曲の多い画像となっている。このような画像を得るために、バックガイドモニタのカメラに用いられるレンズは、中央部の歪曲は小さく、周辺部に行くほど歪曲が大きく形成されている。   For example, the central part of the image of the camera used for the back guide monitor is an image with less distortion that makes it easy for the driver to grasp the sense of distance from the viewpoint of vehicle alignment and collision prevention. In addition, the peripheral portion of the image is a distorted image that can ensure a wide field of view so that it is easy to grasp the state of other vehicles and people in the vicinity. In order to obtain such an image, the lens used in the camera of the back guide monitor has a small distortion at the center and a larger distortion toward the periphery.

このようなレンズで撮影された画像について、従来の画像処理方法およびその装置では、画像中央部の点群データを用いて歪曲補正関数である多項式の各係数を推定していたため、画像周辺部の歪曲を十分に補正することができない。   With respect to an image shot with such a lens, the conventional image processing method and its apparatus estimate each coefficient of a polynomial that is a distortion correction function using point cloud data at the center of the image. The distortion cannot be corrected sufficiently.

本発明は、歪曲を伴うレンズを用いたカメラによって撮影した画像について、歪曲補正を適切に行う画像の歪曲補正方法を提供することを課題とする。   An object of the present invention is to provide an image distortion correction method that appropriately performs distortion correction on an image captured by a camera using a lens with distortion.

前記の課題を解決するため本発明では、歪曲のあるレンズを用いたカメラで撮影した画像を、前記カメラの光軸と前記画像面との交点を中心とする円に内包される領域では、非線形最小二乗法によって係数を求めた多項式近似による歪曲補正関数を適用して歪曲画像を補正し、前記円に内包されない領域では、非線形最小二乗法によって係数を求めた対数式近似による歪曲補正関数を適用して歪曲画像を補正することを特徴とする画像の歪曲補正方法を提供する。   In order to solve the above problems, in the present invention, an image captured by a camera using a distorted lens is nonlinear in a region included in a circle centered at the intersection of the optical axis of the camera and the image plane. Distortion images are corrected by applying a distortion correction function based on polynomial approximation for which a coefficient is obtained by the least square method, and distortion correction functions based on logarithmic approximation for which a coefficient is obtained by a nonlinear least square method are applied to the area not included in the circle. Thus, a distortion correction method for an image is provided, wherein the distortion image is corrected.

本発明によれば、歪曲を伴うレンズを用いたカメラによって撮影した画像について、歪曲補正を適切に行う画像の歪曲補正方法を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the distortion correction method of the image which performs distortion correction appropriately about the image image | photographed with the camera using the lens with a distortion can be provided.

本発明に係る画像の歪曲補正方法について添付図面を参照して説明する。   An image distortion correction method according to the present invention will be described with reference to the accompanying drawings.

先ず、カメラによって撮影する3次元空間中のある点の位置と、その点が画像面に投影された2次元画像面上での位置との関係を記述する座標系について説明する。   First, a coordinate system that describes the relationship between the position of a point in the three-dimensional space photographed by the camera and the position on the two-dimensional image plane where the point is projected on the image plane will be described.

図1は、カメラによって撮影された画像と空間の幾何学的関係を説明する図である。   FIG. 1 is a diagram for explaining the geometric relationship between an image photographed by a camera and a space.

歪曲収差のない理想的なレンズを用いたカメラによる透視投影は、図1に示すようにモデル化できる。空間を表す3次元座標系として、カメラの光学中心を原点とし、Z軸をカメラの光軸方向に一致させ、X軸とY軸は画像の横方向と縦方向に平行にとったものを用いる。このような座標系をカメラ座標系(camera coordinate system)とよぶ。一方、画像面上の位置を表す座標系としては、カメラの光軸と画像面とが交わる交点を原点とし、面像の横方向と縦方向とに、それぞれx軸とy軸とを決める。このとき、空間の位置(X,Y,Z)と画像上の位置(x,y)との間には、[数1]の関係が成り立つ。ここでは焦点距離を1に正規化している。
[数1]
x=X/Z
y=Y/Z
A perspective projection by a camera using an ideal lens without distortion can be modeled as shown in FIG. A three-dimensional coordinate system representing a space is used in which the optical center of the camera is the origin, the Z axis is aligned with the optical axis direction of the camera, and the X and Y axes are parallel to the horizontal and vertical directions of the image. . Such a coordinate system is called a camera coordinate system. On the other hand, as a coordinate system representing the position on the image plane, the intersection point where the optical axis of the camera and the image plane intersect is set as the origin, and the x axis and the y axis are determined in the horizontal direction and the vertical direction of the plane image, respectively. At this time, the relationship of [Equation 1] is established between the position (X, Y, Z) in the space and the position (x, y) on the image. Here, the focal length is normalized to 1.
[Equation 1]
x = X / Z
y = Y / Z

つぎに、空間と画像面との関係をより一般化する。一般に、空間を表す座標系は、空間中のある適当な位置に固定されたワールド座標系(world coordinate system)を用いる。ワールド座標系で表された空間の位置を(Xw,Yw,Zw)とすれば、同じ点をカメラ座標系で表した位置(X,Y,Z)との間には[数2]の関係がある。

Figure 0004872890
Next, the relationship between the space and the image plane is more generalized. In general, a coordinate system representing a space uses a world coordinate system fixed at an appropriate position in the space. If the position of the space expressed in the world coordinate system is (Xw, Yw, Zw), the relationship of [Equation 2] between the same point and the position (X, Y, Z) expressed in the camera coordinate system There is.
Figure 0004872890

一方、画像面上の位置は、一般に、原点を画像面上のある適当な位置に定め、長さの単位としては画素(pixel)を用いる。このような画像面上の位置を表す汎用的な座標を画像座標(imege coordinates)(u,v)とし、これと区別するため座標(x,y)を正規化画像座標(normalized image coordinates)とよぶ。このとき、正規化画像座標と画像座標との関係は、[数3]で表される。

Figure 0004872890
On the other hand, as for the position on the image plane, generally, the origin is set at a certain appropriate position on the image plane, and a pixel is used as a unit of length. Such general-purpose coordinates representing a position on the image plane are set as image coordinates (u, v), and coordinates (x, y) are normalized image coordinates (normalized image coordinates) to be distinguished from the image coordinates (u, v). Call it. At this time, the relationship between the normalized image coordinates and the image coordinates is expressed by [Equation 3].
Figure 0004872890

[数1]から[数3]より、[数4]のように一般的なワールド座標(Xw,Yw,Zw)と画像座標(u,v)との間の関係が導かれる。

Figure 0004872890
From [Equation 1] to [Equation 3], as in [Equation 4], the relationship between general world coordinates (Xw, Yw, Zw) and image coordinates (u, v) is derived.
Figure 0004872890

[数4]により、任意の空間の位置と、それが画像面に投影されたときの画像面上の位置との関係を表すことができる。ここで、カメラの焦点距離f、横方向の画素の物理的な間隔δu、縦方向の画素の物理的な間隔δvおよび画像中心(c,c)はカメラによって決まる定数であり、カメラの内部パラメータK(internal parameter、intrinsic parameter)とよぶ。一方、Rとtとは、ワールド座標に対するカメラの位置と姿勢によって決まる定数であり、カメラの外部パラメータ(external parameter、extrinsic parameter)とよぶ。また、カメラの内部パラメータと外部パラメータとを合わせてカメラパラメータ(camera parameter)とよぶ。 [Equation 4] can represent the relationship between the position of an arbitrary space and the position on the image plane when it is projected onto the image plane. Here, the focal length f of the camera, the physical interval δu in the horizontal direction, the physical interval δv in the vertical direction, and the image center (c u , c v ) are constants determined by the camera. It is called an internal parameter K (internal parameter, intrinsic parameter). On the other hand, R and t are constants determined by the position and orientation of the camera with respect to the world coordinates, and are called external parameters (external parameters, extrinsic parameters) of the camera. The camera internal parameters and external parameters are collectively referred to as camera parameters.

図2はレンズの歪曲収差を説明する図であり、(A)はレンズの半径方向歪曲収差を説明する図であり、(B)は実際の空間情報を示す図であり、(C)および(D)は歪曲収差の例を示す図である。   2A and 2B are diagrams for explaining lens distortion, FIG. 2A is a diagram for explaining radial distortion of the lens, FIG. 2B is a diagram showing actual spatial information, and FIGS. D) is a diagram showing an example of distortion.

広角レンズでは、レンズの半径方向や接線方向の歪曲収差(distortion)を考慮する必要がある。図2の(A)に示すように、半径方向歪曲収差は物体Aから出た光線が入射角θで光学中心を通るとき、出射角θ’が入射角θと等しくならないために生じる。接線方向歪曲収差は、レンズを構成する複数レンズ間の中心位置のずれや傾きによって発生する。接線方向歪曲収差は半径方向歪曲収差と比べて小さく、実用上は無視できることも多いため、説明の簡単のためにモデル化において省略する。   In a wide-angle lens, it is necessary to consider distortion in the radial direction and tangential direction of the lens. As shown in FIG. 2A, the radial distortion occurs when the light beam emitted from the object A passes through the optical center at the incident angle θ and the output angle θ ′ is not equal to the incident angle θ. Tangential distortion occurs due to a shift or inclination of the center position between a plurality of lenses constituting the lens. The tangential distortion is smaller than the radial distortion and is often negligible in practice, and is omitted in the modeling for the sake of simplicity.

歪曲収差は、[数5]のようにモデル化できる。

Figure 0004872890
The distortion aberration can be modeled as [Equation 5].
Figure 0004872890

3次元空間のある点を撮影して画像座標を得るとき、歪曲収差のない理想的なレンズでは画像座標で表した位置(u,v)に投影され、歪曲収差のあるレンズでは歪曲画像座標で表した位置(u,v)に投影される。κ、κはレンズの歪曲を表す係数である。また、歪曲収差のない理想的なレンズで画像座標に投影した位置(u,v)を予測位置、歪曲収差のあるレンズで歪曲画像座標に投影した位置(u,v)を観測位置とよぶ。 When a certain point in a three-dimensional space is photographed to obtain image coordinates, an ideal lens without distortion is projected at a position (u, v) represented by the image coordinates, and a lens having distortion aberration is represented by the distortion image coordinates. Projected to the represented position (u d , v d ). κ 1 and κ 2 are coefficients representing lens distortion. Also, the position (u, v) projected on the image coordinates with an ideal lens without distortion aberration is the predicted position, and the position (u d , v d ) projected on the distortion image coordinates with a lens with distortion aberration is the observation position. Call it.

図2(B)に示した正方形の格子を、半径方向歪曲収差があるレンズを用いたカメラで撮影した画像の例を図2(C)、(D)に示す。   FIGS. 2C and 2D show examples of images obtained by photographing the square lattice shown in FIG. 2B with a camera using a lens having radial distortion.

なお、歪曲収差があるレンズを用いたカメラで撮影した画像を歪曲画像とよぶ。   An image taken with a camera using a lens with distortion is called a distorted image.

図2(C)、(D)に示すような歪曲収差のあるレンズを用いたカメラの透視投影を[数5]のようにモデル化し、これに基づいたターゲットの予測位置と実際の観測位置との幾何学的距離(再投影誤差)の二乗和を最小化するようにパラメータを推定して、図2(B)に示すような実際の空間情報を歪曲収差のない理想的なレンズを用いたカメラによって透視投影した画像に補正する。このパラメータの推定において、[数6]によって表される非線形最小二乗法による推定をバンドル調整とよぶ。パラメータはカメラパラメータと、レンズの歪曲を表す係数であるκ、κとから構成される。

Figure 0004872890
A perspective projection of a camera using a lens having a distortion aberration as shown in FIGS. 2C and 2D is modeled as shown in [Equation 5], and the predicted position of the target and the actual observation position based on this are modeled. The parameters were estimated so as to minimize the sum of squares of the geometric distance (reprojection error), and the actual spatial information as shown in FIG. 2B was used using an ideal lens without distortion. The image is corrected to the perspective projected by the camera. In the estimation of this parameter, the estimation by the nonlinear least square method expressed by [Equation 6] is called bundle adjustment. The parameters are composed of camera parameters and κ 1 and κ 2 which are coefficients representing lens distortion.
Figure 0004872890

ここで、歪曲補正関数の係数の推定、すなわちバンドル調整に使用する3次元座標値と2次元座標値とを対応付けた点群データは、3次元座標値が既知のターゲットを撮影し、画像面上に投影されたターゲットの2次元座標値を抽出し、3次元座標値と2次元座標値との各座標を対応付けることで得られる。   Here, the point group data in which the coefficient of the distortion correction function is estimated, that is, the three-dimensional coordinate value used for bundle adjustment and the two-dimensional coordinate value are associated with each other is obtained by photographing a target having a known three-dimensional coordinate value. It is obtained by extracting the two-dimensional coordinate value of the target projected above and associating the coordinates of the three-dimensional coordinate value and the two-dimensional coordinate value.

先ず、3次元座標値が既知のターゲットとして、例えば500mm角のクロスカーペットを撮影空間の床面に配置し、カメラでこの空間を撮影して歪曲画像を取得する。次に、この歪曲画像からクロスカーペットの格子模様のそれぞれの格子の角(格子点)をターゲットとして、この2次元座標値を複数抽出する。次に、撮影空間が存する3次元空間での原点を、例えば画像面上の中央手前のクロスカーペットの格子点などのように決め、各格子点の3次元座標値を求める。この3次元座標値と2次元座標値とから、それぞれ対応する格子点を対応付けた点群データを得る。また、カメラと床面との距離を適宜変更して画像の上下方向についても各格子点の3次元座標値と2次元座標値とから、それぞれ対応する格子点を対応付けた点群データを得る。   First, as a target having a known three-dimensional coordinate value, for example, a 500 mm square cross carpet is placed on the floor surface of the shooting space, and the space is shot with a camera to obtain a distorted image. Next, a plurality of these two-dimensional coordinate values are extracted from the distorted image with the corners (grid points) of the lattice patterns of the cross carpet as targets. Next, the origin in the three-dimensional space where the photographing space exists is determined, for example, as the lattice point of the cross carpet in front of the center on the image plane, and the three-dimensional coordinate value of each lattice point is obtained. From the three-dimensional coordinate value and the two-dimensional coordinate value, point group data in which corresponding lattice points are associated with each other is obtained. Further, by appropriately changing the distance between the camera and the floor, point cloud data in which the corresponding grid points are associated with each other is obtained from the three-dimensional coordinate values and the two-dimensional coordinate values of the respective grid points in the vertical direction of the image. .

この点群データをもとに非線形最適化手法によって歪曲補正関数の係数であるカメラの内部パラメータ、外部パラメータ、レンズの歪曲を表す係数を推定する。   Based on this point cloud data, the camera internal parameters, external parameters, and coefficients representing lens distortion are estimated by a nonlinear optimization method.

ここで、3次元座標値が既知のターゲットが投影される画像面について、正規化画像座標に投影されたターゲットが存在する領域を包含する円Cの領域と、歪曲収差のあるレンズで投影された歪曲画像座標に投影されたターゲットが存在する領域を包含する円Cdの領域とを考える。なお、ターゲットの存在する領域とは、多項式近似による歪曲補正関数において、多項式の係数を推定するに当たり非線形最小二乗法の解の収束を考慮して採用可能な点群データが存する領域をいう。   Here, an image plane onto which a target with a known three-dimensional coordinate value is projected is projected by a region of a circle C including a region where the target projected on the normalized image coordinates exists and a lens having distortion aberration. Consider an area of a circle Cd that includes an area where a target projected onto the distorted image coordinates exists. The region where the target exists is a region where point cloud data that can be adopted in consideration of the convergence of the solution of the nonlinear least square method in estimating the coefficient of the polynomial in the distortion correction function by the polynomial approximation exists.

正規化画像座標に投影されたターゲットが存在する領域を包含する円Cの半径Rmaxは、ワールド座標系で表された位置(Xw,Yw,Zw)から[数2]によってカメラ座標系で表された位置(X,Y,Z)に変換され、この位置(X,Y,Z)から[数1]によって正規化画像座標に投影されたターゲットの位置(x,y)から求められる半径(x+y1/2の最大値である。すなわち、歪曲収差のレンズで投影される歪曲画像面上では、正規化画像座標に投影されたターゲットの位置(x,y)から[数3]を変形して求められる画像座標に投影されたターゲットの位置(u,v)が求められ、この位置(u,v)から[数5]によって求められる歪曲画像座標の位置(u,v)から求められる半径{(u−c+(v−c1/2の最大値である。この歪曲収差のあるレンズで投影された歪曲画像座標に投影されたターゲットが存在する領域を包含する円Cdの半径{(u−c+(v−c1/2を半径Rdmaxとよぶ。 The radius Rmax of the circle C including the region where the target projected on the normalized image coordinates exists is expressed in the camera coordinate system by [Expression 2] from the position (Xw, Yw, Zw) expressed in the world coordinate system. Radius (x, y) obtained from the position (x, y) of the target converted to the normalized image coordinates by [Equation 1] from this position (X, Y, Z). 2 + y 2 ) 1/2 maximum value. That is, on the distorted image plane projected by the distortion aberration lens, the target projected on the image coordinates obtained by transforming [Equation 3] from the target position (x, y) projected on the normalized image coordinates. The position (u, v) of the image is obtained, and the radius {(u d −c u ) obtained from the position (u d , v d ) of the distorted image coordinates obtained from [5] from this position (u, v). 2 + (v d −c v ) 2 } 1/2 maximum value. Radius {(u d −c u ) 2 + (v d −c v ) 2 } 1 / including the region where the target projected on the distorted image coordinates projected by the lens having this distortion aberration exists 2 is called a radius Rdmax.

また、正規化画像座標に投影されたターゲットの位置(x,y)から求められる半径(x+y1/2を正規化画像座標上の像高Dとよび、歪曲を有するレンズで投影された歪曲画像座標の位置(u,v)から求められる半径{(u−c+(v−c1/2を歪曲画像座標上の像高Ddとよぶ。 Further, the radius (x 2 + y 2 ) 1/2 obtained from the target position (x, y) projected on the normalized image coordinates is called the image height D on the normalized image coordinates, and is projected by a distorted lens. The radius {(u d −c u ) 2 + (v d −c v ) 2 } 1/2 obtained from the position (u d , v d ) of the distorted image coordinates obtained is set as the image height Dd on the distorted image coordinates. Call it.

ここで、[数6]によって表される歪曲補正関数の非線形最小二乗法による推定例を説明する。   Here, an example of estimating the distortion correction function represented by [Equation 6] by the nonlinear least square method will be described.

図3は、歪曲画像の一例を説明する図である。   FIG. 3 is a diagram illustrating an example of a distorted image.

図4は、図3に示された歪曲画像を多項式近似による歪曲補正関数によって補正した画像の一例を説明する図である。   FIG. 4 is a diagram for explaining an example of an image obtained by correcting the distorted image shown in FIG. 3 using a distortion correction function based on polynomial approximation.

図5は、図3に示された歪曲画像とターゲットが存在する領域を包含する円との関係を説明する図である。   FIG. 5 is a diagram for explaining the relationship between the distorted image shown in FIG. 3 and a circle including a region where the target exists.

図6は、多項式近似による歪曲補正関数と正規化画像座標に投影されたターゲットが存在する領域を包含する円との関係を説明する図である。   FIG. 6 is a diagram for explaining the relationship between a distortion correction function based on polynomial approximation and a circle including a region where a target projected on normalized image coordinates exists.

図3に示すように、歪曲画像では、3次元座標値が既知のターゲットとして、例えば500mm角のクロスカーペットを撮影空間の床面に配置して画像を取得すると、各格子の略直線状の各辺が歪んで曲線状に投影される。この画像の歪曲は画像の周辺部で大きく観察され、特に画像の左右下端で顕著に観察される。   As shown in FIG. 3, in a distorted image, when a three-dimensional coordinate value is known as a target, for example, when a 500 mm square cross carpet is placed on the floor surface of the shooting space and the image is acquired, The edges are distorted and projected in a curved line. This distortion of the image is greatly observed at the peripheral portion of the image, and particularly noticeable at the left and right lower ends of the image.

図4に示すように、歪曲画像について、[数6]によって表されるバンドル調整によって歪曲補正関数の係数を推定して補正した画像の中央部では、各格子の略直線状の各辺の歪曲が補正された自然な画像が得られる。しかしながら、図3に示された歪曲画像において歪曲が顕著な画像の左右下側では、格子の略直線状の辺の歪が十分に補正できていないことが観察できる。   As shown in FIG. 4, in the central portion of the image obtained by estimating the coefficient of the distortion correction function by the bundle adjustment represented by [Equation 6] and correcting the distortion image, the distortion of each side of the substantially straight line of each lattice is as shown in FIG. A natural image in which is corrected is obtained. However, in the distorted image shown in FIG. 3, it can be observed that the distortion of the substantially linear side of the lattice is not sufficiently corrected on the lower left and right sides of the image in which the distortion is significant.

なお、歪曲画像を歪曲補正関数によって補正した画像を補正画像とよぶ。   An image obtained by correcting a distorted image using a distortion correction function is called a corrected image.

図5に示すように、図4において歪曲補正関数の係数の推定にあたり点群データとして使用したターゲットとしての格子点+は歪曲画像の中央部に密集し、歪曲画像の周辺部にはターゲットとして使用できる格子点が存在しない。この格子点+が存在する領域を包含する領域が半径Rdmaxの円Cdであり、円Cdが正規化画像座標に投影される円Cの半径が半径Rmaxである。   As shown in FIG. 5, the lattice points + used as point cloud data in estimating the coefficients of the distortion correction function in FIG. 4 are concentrated in the central portion of the distorted image and used as targets in the peripheral portion of the distorted image. There are no grid points that can be created. The area including the area where the grid point + exists is a circle Cd having a radius Rdmax, and the radius of the circle C projected on the normalized image coordinates is the radius Rmax.

図6に示すように、正規化画像座標において、ターゲットは半径Rmaxの円C内に存在する。ターゲット◇が投影される正規化画像座標上の2次元座標値から求められる像高Dを破線Tで表すと、ターゲット◇は破線T上に投影される。実線Aは、多項式による歪曲補正関数を表し、ターゲット◇が存在する半径Rmaxの領域内では、多項式による歪曲補正関数が歪曲画像を適切に補正し、ターゲットの存在しない領域では、多項式による歪曲補正関数が歪曲画像を適切に補正できていないことが観察される。   As shown in FIG. 6, the target exists in a circle C having a radius Rmax in normalized image coordinates. When the image height D obtained from the two-dimensional coordinate values on the normalized image coordinates on which the target ◇ is projected is represented by a broken line T, the target ◇ is projected on the broken line T. A solid line A represents a distortion correction function based on a polynomial. The distortion correction function based on the polynomial appropriately corrects the distortion image in the area of the radius Rmax where the target ◇ exists, and the distortion correction function based on the polynomial in the area where the target does not exist. However, it is observed that the distorted image cannot be corrected appropriately.

なお、図6において横軸は正規化座標と光軸の交点とを原点とする半径(x+y1/2の値、すなわち像高Dであり、縦軸は[数7]で表される歪曲画像座標における像高Ddと補正画像における像高Dとの変化率hである。
[数7]
変化率h=[{(u−c+(v−c1/2−{(u−c+(v−c1/2]/{(u−c+(v−c1/2
=κ×r+κ×r
In FIG. 6, the horizontal axis is a value of radius (x 2 + y 2 ) ½ with the origin of the intersection of the normalized coordinate and the optical axis, that is, the image height D, and the vertical axis is expressed by [Equation 7]. The rate of change h between the image height Dd at the distorted image coordinates and the image height D in the corrected image.
[Equation 7]
Change rate h = [{(u d -c u) 2 + (v d -c v) 2} 1/2 - {(u-c u) 2 + (v-c v) 2} 1/2] / {(U−c u ) 2 + (v−c v ) 2 } 1/2
= Κ 1 × r 2 + κ 2 × r 4

図7は、本発明に係る画像の歪曲補正方法を説明するフローチャートである。   FIG. 7 is a flowchart for explaining an image distortion correction method according to the present invention.

図7に示すように、本実施形態に係る画像の歪曲補正方法のステップS1では、広角レンズを用いたカメラで撮影した画像(歪曲画像)から、歪曲補正を行う画素位置(udi,dj)のうち、開始画素の位置(ud1,d1)を指定する。 As shown in FIG. 7, in step S1 of the image distortion correction method according to the present embodiment, pixel positions (u di, v dj ) for performing distortion correction from an image (distortion image) captured by a camera using a wide-angle lens. ) Designates the position (u d1, v d1 ) of the start pixel.

次に、ステップS2では、画素位置(udi,dj)が歪曲画像面上の点群データが存在する領域を包含する半径Rdmaxの円Cdに内包されるか否かを判断する。画素位置(udi,dj)が半径Rdmaxの円Cdに内包される場合はステップS3に進む。その他の場合はステップS4に進む。 Next, in step S2, it is determined whether or not the pixel position (u di, v dj ) is included in a circle Cd having a radius Rdmax that includes an area where point cloud data exists on the distorted image plane. When the pixel position (u di, v dj ) is included in the circle Cd having the radius Rdmax, the process proceeds to step S3. In other cases, the process proceeds to step S4.

次に、ステップS3では、ステップS2で半径Rdmaxの円Cdに内包されると判断された画素位置(udi,dj)について多項式近似による歪曲補正関数を適用して画像座標(u,v)を得る。 Next, in step S3, a distortion correction function by polynomial approximation is applied to the pixel position (u di, v dj ) determined to be included in the circle Cd having the radius Rdmax in step S2, and image coordinates (u i , v j ) is obtained.

次に、ステップS4では、ステップS2で半径Rdmaxの円Cdに内包されないと判断された画素位置(udi,dj)について対数式近似による歪曲補正関数を適用して画像座標(u,v)を得る。 Next, in step S4, a distortion correction function based on logarithmic approximation is applied to the pixel position (u di, v dj ) determined not to be included in the circle Cd having the radius Rdmax in step S2, and image coordinates (u i , v j ) is obtained.

次に、ステップS5では、画素位置(udi,dj)が終了画素の位置(udimax,djmax)か否かを判断する。画素位置(udi,dj)が終了画素の位置(udimax,djmax)の場合は歪曲画像の補正を終了して補正画像を得る。その他の場合は、ステップS6に進む。 Next, in step S5, it is determined whether the pixel position (u di, v dj ) is the end pixel position (u dimax, v djmax ). When the pixel position (u di, v dj ) is the end pixel position (u dimax, v djmax ), the correction of the distorted image is finished to obtain a corrected image. In other cases, the process proceeds to step S6.

次に、ステップS6では、画素位置(udi,dj)をu軸方向またはv軸方向へ1画素分進ませて、画素位置(udi+1,dj)または画素位置(udi,dj+1)とする。例えば、画像の大きさが横640pixel×縦480pixelの場合には、imax=640、jmax=480であり、ステップS6に処理が至る毎に順次(ud1,d2)、(ud1,d3)、(ud1,d4)、・・・・・・、(ud640,d478)、(ud640,d479)、(ud640,d480)のように1画素分進ませる。 Next, in step S6, the pixel position (u di, v dj ) is advanced by one pixel in the u-axis direction or the v-axis direction, and the pixel position (u di + 1, v dj ) or pixel position (u di, v dj + 1). ). For example, when the image size is horizontal 640 pixels × vertical 480 pixels, imax = 640 and jmax = 480, and (u d1, v d2 ), (u d1, v d3 ) are sequentially executed every time processing is performed in step S6. ), (U d1, v d4 ),..., (U d640, v d478 ), (u d640, v d479 ), (u d640, v d480 ), and so on.

歪曲補正関数を近似する式の係数の推定は、一般的には非線形最適化手法であるLevensberg−Marquardt法によって点群データから求める。   The estimation of the coefficient of the expression approximating the distortion correction function is generally obtained from the point cloud data by the Levenberg-Marquardt method which is a nonlinear optimization method.

多項式の係数は、[数2]、[数3]、[数5]によって表されるカメラの焦点距離fと、横方向の画素の物理的な間隔δuと、縦方向の画素の物理的な間隔δvと、画像中心の画像座標系における座標(c,c)と、3×3の回転行列Rと、3次元の平行移動ベクトルtと、レンズの歪曲を表す係数κ、κとから構成され、[数6]によって表されるバンドル調整により求める。 The coefficients of the polynomial are the focal length f of the camera represented by [Equation 2], [Equation 3], and [Equation 5], the physical interval δu of the pixels in the horizontal direction, and the physical distance of the pixels in the vertical direction. The interval δv, the coordinates (c u , c v ) in the image coordinate system at the center of the image, the 3 × 3 rotation matrix R, the three-dimensional translation vector t, and the coefficients κ 1 and κ 2 representing lens distortion. And is obtained by bundle adjustment represented by [Equation 6].

他方、対数式の係数は、[数2]、[数3]によって表されるカメラの焦点距離fと、横方向の画素の物理的な間隔δuと、縦方向の画素の物理的な間隔δvと、画像中心の画像座標系における座標(c,c)と、3×3の回転行列Rと、3次元の平行移動ベクトルtとともに、[数8]によって表されるレンズの歪曲を表す係数κln1、κln2とから構成され、バンドル調整により求める。 On the other hand, the coefficients of the logarithm are as follows: the focal length f of the camera represented by [Equation 2] and [Equation 3], the physical interval δu of the horizontal pixels, and the physical interval δv of the vertical pixels. Along with the coordinates (c u , c v ) in the image coordinate system at the center of the image, the 3 × 3 rotation matrix R, and the three-dimensional translation vector t, the distortion of the lens represented by [Equation 8] is expressed. consists factor kappa ln1, kappa ln2 Prefecture, determined by bundle adjustment.

広角レンズの歪曲収差は、対数式によって[数8]にようにモデル化できる。

Figure 0004872890
The distortion of the wide-angle lens can be modeled as [Equation 8] by logarithmic expression.
Figure 0004872890

対数式近似による歪曲補正関数では、対数式によって歪曲収差のあるレンズを用いたカメラの透視投影を[数8]のようにモデル化し、これに基づいたターゲットの予測位置と実際の観測位置との幾何学的距離(再投影誤差)の二乗和を最小化するように係数κln1、κln2を推定する。このパラメータ推定について、[数9]によって表される最小二乗法による推定を行う。

Figure 0004872890
In the distortion correction function based on the logarithmic approximation, the perspective projection of the camera using the lens having distortion aberration is modeled by the logarithmic expression as in [Equation 8], and the predicted position of the target based on this and the actual observation position are calculated. geometrical distance coefficient so as to minimize the sum of squares of (reprojection error) kappa ln1, estimates the kappa ln2. About this parameter estimation, estimation by the least squares method represented by [Equation 9] is performed.
Figure 0004872890

図8は、本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数における対数式の係数の推定に用いる点群データの存する領域のしきい半径値Rthと、対数式の係数を推定する方法を説明するフローチャートである。   FIG. 8 shows the threshold radius value Rth of the region where the point cloud data is used for the estimation of the coefficient of the logarithmic expression in the distortion correction function by logarithmic approximation in the image distortion correction method according to the present invention, and the coefficient of the logarithmic expression. It is a flowchart explaining the method to estimate.

図8に示すように、ステップS11では、[数6]によって表される非線形最小二乗法によって多項式の係数の推定を行い、[数2]、[数3]、[数5]によって表される多項式の係数である焦点距離fと、横方向の画素の物理的な間隔δuと、縦方向の画素の物理的な間隔δvと、画像中心の画像座標系における座標(c,c)と、3×3の回転行列Rと、3次元の平行移動ベクトルtと、レンズの歪曲を表す係数κ、κとを求める。 As shown in FIG. 8, in step S11, the coefficient of the polynomial is estimated by the nonlinear least square method expressed by [Expression 6], and expressed by [Expression 2], [Expression 3], and [Expression 5]. The focal length f, which is a coefficient of the polynomial, the physical distance δu between the horizontal pixels, the physical distance δv between the vertical pixels, and the coordinates (c u , c v ) in the image coordinate system at the image center A 3 × 3 rotation matrix R, a three-dimensional translation vector t, and coefficients κ 1 and κ 2 representing lens distortion are obtained.

次に、ステップS12では、しきい半径値Rthを0とする。   Next, in step S12, the threshold radius value Rth is set to zero.

次に、ステップS13では、しきい半径値Rthから半径Rmaxの領域に存する点群データを用いて、[数9]によって表される最小二乗法によって対数式の係数の推定を行い、[数8]によって表される対数式の係数κln1、κln2を求める。なお、焦点距離fと、横方向の画素の物理的な間隔δuと、縦方向の画素の物理的な間隔δvと、画像中心の画像座標系における座標(c,c)と、3×3の回転行列Rと、3次元の平行移動ベクトルtとはステップS11で[数6]によって表される非線形最小二乗法によって求められている。 Next, in step S13, the coefficient of the logarithm is estimated by the least square method represented by [Equation 9] using the point cloud data existing in the region from the threshold radius value Rth to the radius Rmax, and [Equation 8]. logarithmically coefficient kappa ln1 represented by, determining the kappa ln2. Note that the focal length f, the physical interval δu between the horizontal pixels, the physical interval δv between the vertical pixels, the coordinates (c u , c v ) in the image coordinate system at the center of the image, and 3 × The rotation matrix R of 3 and the three-dimensional translation vector t are obtained by the nonlinear least square method represented by [Equation 6] in step S11.

次に、ステップS14では、最小二乗法の決定係数εとしきい値εthとを比較する。決定係数εがしきい値εth以下の場合は、このときのしきい半径値Rthにおける対数式の係数κln1、κln2を採用して処理を終了する。その他の場合は、ステップS15に進む。決定係数εのしきい値εthは、歪曲補正関数によって補正画像の歪曲の良否を考慮して設定するものであり、例えばしきい値εth=0.001程度に設定する。 Next, in step S14, the determination coefficient ε 2 of the least square method and the threshold value ε 2 th are compared. If the coefficient of determination epsilon 2 is less than or equal to the threshold epsilon 2 th, the coefficient pairs formula in threshold radius value Rth at this time kappa ln1, and ends the adoption and processing kappa ln2. In other cases, the process proceeds to step S15. The threshold value ε 2 th of the determination coefficient ε 2 is set in consideration of the quality of the corrected image by the distortion correction function. For example, the threshold value ε 2 th is set to about 0.001.

次に、ステップS15では、しきい半径値Rthに任意の値ΔRthを加算して、再度、ステップS13へ戻る。任意の値ΔRthは、0より大きく正規化画像座標上の焦点距離である1以下であることが望ましく、例えば0.2〜0.3程度が好適である。   Next, in step S15, an arbitrary value ΔRth is added to the threshold radius value Rth, and the process returns to step S13 again. The arbitrary value ΔRth is preferably greater than 0 and equal to or less than 1 which is the focal length on the normalized image coordinates, and is preferably about 0.2 to 0.3, for example.

図9から図14は、本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数の係数を推定するに当たり使用する点群データのしきい半径値Rthと、補正された画像との関係の具体例を説明する図である。   FIGS. 9 to 14 show the threshold radius value Rth of the point cloud data used for estimating the coefficient of the distortion correction function by logarithmic approximation in the image distortion correction method according to the present invention, the corrected image, It is a figure explaining the specific example of these relationships.

図9から図14の(A)は対数式近似による歪曲補正関数と、対数式の係数を推定するに当たり使用する点群データのしきい半径値Rthとの関係を説明する図であり、(B)はしきい半径値Rth毎に推定した歪曲補正関数によって補正された画像を示す図であり、(C)は(B)を変換して得た俯瞰図である。   9A to 14A are diagrams for explaining the relationship between the distortion correction function by logarithmic approximation and the threshold radius value Rth of the point cloud data used for estimating the coefficient of the logarithmic equation. ) Is a diagram showing an image corrected by a distortion correction function estimated for each threshold radius value Rth, and (C) is an overhead view obtained by converting (B).

なお、図9から図14の(A)において横軸は正規化座標と光軸の交点とを原点とする半径(x+y1/2の値、すなわち像高Dであり、縦軸は[数7]および[数10]で表される歪曲画像座標における像高Ddと補正画像における像高Dとの変化率hである。
[数10]
変化率h=κln1×ln(r)+κln2
9A to 14A, the horizontal axis is a value of radius (x 2 + y 2 ) 1/2 with the origin at the intersection of the normalized coordinates and the optical axis, that is, the image height D, and the vertical axis Is the rate of change h between the image height Dd at the distorted image coordinates represented by [Equation 7] and [Equation 10] and the image height D in the corrected image.
[Equation 10]
Rate of change h = κ ln1 × ln (r 2 ) + κ ln2

図9から図14の(A)に示すように、しきい半径値Rthを0から1.25まで0.25毎に変化させて対数式の係数を推定する。図9(A)は、しきい半径値Rth=0.0における対数式による近似とターゲット◇、□との関係を示した図であり、図10(A)は、しきい半径値Rth=0.25における対数式による近似とターゲット◇、□との関係を示した図であり、図11(A)は、しきい半径値Rth=0.50における対数式による近似とターゲット◇、□との関係を示した図であり、図12(A)は、しきい半径値Rth=0.75における対数式による近似とターゲット◇、□との関係を示した図であり、図13(A)は、しきい半径値Rth=1.00における対数式による近似とターゲット◇、□との関係を示した図であり、図14(A)は、しきい半径値Rth=1.25における対数式による近似とターゲット◇、□との関係を示した図である。ターゲット□は、対数式の係数を推定するに当たり使用する点群データであり、その像高Dは、しきい半径値Rth≦像高D≦半径Rmaxの関係がある。   As shown in FIG. 9A to FIG. 14A, the coefficient of the logarithmic formula is estimated by changing the threshold radius value Rth from 0 to 1.25 every 0.25. FIG. 9A is a diagram showing the relationship between the approximation by the logarithmic expression at the threshold radius value Rth = 0.0 and the targets ◇ and □, and FIG. 10A is the threshold radius value Rth = 0. .25 is a diagram showing the relationship between the approximation by the logarithmic expression and the targets ◇ and □, and FIG. 11A shows the approximation by the logarithmic expression at the threshold radius value Rth = 0.50 and the targets ◇ and □. FIG. 12 (A) is a diagram showing the relationship between approximation by the logarithmic expression at the threshold radius value Rth = 0.75 and the targets ◇ and □, and FIG. 13 (A) is a diagram showing the relationship. FIG. 14A is a diagram showing the relationship between the approximation by the logarithmic expression at the threshold radius value Rth = 1.00 and the targets ◇ and □, and FIG. 14A is the logarithmic expression at the threshold radius value Rth = 1.25. It is the figure which showed the relation between approximation and target ◇ and □The target □ is point cloud data used for estimating the coefficient of the logarithmic expression, and the image height D has a relationship of threshold radius value Rth ≦ image height D ≦ radius Rmax.

図13(A)に示すように、しきい半径値Rth=1.00のときに決定係数ε=0.0003となり、しきい値εth=0.001以下となっている。このとき、対数式の係数κln1、κln2は、それぞれ−0.171、−0.1931となっている。この係数によって得られる対数式は、ターゲット◇、□の存する像高D=0から2.35の領域外、すなわち像高D=2.35から5程度の範囲で歪曲画像を補正する。補正画像が図9から図14の(B)に示されている。図9から図14の(C)に示すように、補正画像から変換して得られた俯瞰図を比較すると、画像の左右下部、すなわち、撮影された空間においてはカメラ近傍の左右の空間において、決定係数がしきい値εthより大きい歪曲補正関数で得られた補正画像に比べて、決定係数がしきい値εth以下の歪曲補正関数で得られた補正画像のほうが、より理想的なレンズで得られる透視投影図に近いことが分かる。 As shown in FIG. 13A, the determination coefficient ε 2 = 0.0003 when the threshold radius value Rth = 1.00, and the threshold value ε 2 th = 0.001 or less. At this time, the coefficient of the logarithmic type kappa ln1, kappa ln2 are respectively -0.171, a -0.1931. The logarithmic expression obtained by this coefficient corrects a distorted image outside the region of the image height D = 0 to 2.35 where the targets ◇ and □ exist, that is, in the range of the image height D = 2.35 to 5. The corrected image is shown in FIGS. 9 to 14B. As shown in (C) of FIG. 9 to FIG. 14, when comparing the overhead views obtained by converting from the corrected image, in the left and right lower parts of the image, that is, in the left and right spaces near the camera in the captured space, the coefficient of determination is compared with the corrected image obtained by the threshold epsilon 2 th is greater than the distortion correction function, better coefficient of determination is obtained corrected image following distortion correction function threshold epsilon 2 th is more ideal It can be seen that this is close to the perspective projection obtained with a simple lens.

なお、非線形最適化において、歪曲画像の周辺部を点群データに含めると最適化が収束しなくなる。このため、点群データを抽出する領域を歪曲画像の中央部に限定している。この領域の限定は経験的な値であり、本例では正規化画像座標における像高D=2.35の点まで与えている。すなわちRmax=2.35となる。この値は、使用するレンズの焦点距離、歪曲度合いによって変わるため一意には決まらない。   In the nonlinear optimization, if the peripheral portion of the distorted image is included in the point cloud data, the optimization does not converge. For this reason, the area | region which extracts point cloud data is limited to the center part of a distorted image. The limitation of this area is an empirical value, and in this example, the point up to the image height D = 2.35 in the normalized image coordinates is given. That is, Rmax = 2.35. Since this value varies depending on the focal length and the degree of distortion of the lens used, it is not uniquely determined.

すなわち、本実施形態に係る画像の歪曲補正方法は、歪曲補正関数の係数を推定するに当たって使用する3次元座標値が既知のターゲットが歪曲画像に投影される領域を包含する円Cdに内包される領域、すなわち、カメラの光軸と歪曲画像面との交点を中心とする半径Rdmaxの円Cdに内包される領域では、非線形最小二乗法によって係数を求めた多項式近似による歪曲補正関数を適用して歪曲画像を補正し、円Cdに内包されない領域では、ターゲットが正規化画像座標に投影された座標の像高Dが、しきい半径値Rth≦像高D≦半径Rmaxの範囲に存する点群データをもとに最小二乗法によって係数を求めた対数式近似による歪曲補正関数を適用して歪曲画像を補正して補正画像を得る。   In other words, the image distortion correction method according to the present embodiment is included in a circle Cd including a region where a target whose three-dimensional coordinate values used for estimating the coefficient of the distortion correction function are known is projected onto the distortion image. In a region, that is, a region included in a circle Cd having a radius Rdmax centered on the intersection of the optical axis of the camera and the distorted image plane, a distortion correction function by polynomial approximation obtained by a nonlinear least square method is applied. In a region where the distorted image is corrected and not included in the circle Cd, point cloud data in which the image height D of the coordinates where the target is projected onto the normalized image coordinates is within the range of threshold radius value Rth ≦ image height D ≦ radius Rmax A corrected image is obtained by correcting a distorted image by applying a distortion correction function by logarithmic approximation obtained by a least square method based on the above.

図15(A)は本発明に係る画像の歪曲補正方法による補正画像の一例を示す図であり、(B)は(A)の補正画像を変換して得た俯瞰図であり、(C)は(B)の俯瞰図の光軸を画像の左側に偏らせた俯瞰図である。   FIG. 15A is a view showing an example of a corrected image by the image distortion correction method according to the present invention, FIG. 15B is an overhead view obtained by converting the corrected image of FIG. (B) is an overhead view in which the optical axis of the overhead view is biased to the left side of the image.

図16(A)は多項式による歪曲補正関数を用いた歪曲補正方法による補正画像の一例を示す図であり、(B)は(A)の補正画像を変換して得た俯瞰図であり、(C)は(B)の俯瞰図の光軸を画像の左側に偏らせた俯瞰図である。   FIG. 16A is a diagram illustrating an example of a corrected image by a distortion correction method using a polynomial distortion correction function, and FIG. 16B is an overhead view obtained by converting the corrected image of FIG. C) is an overhead view in which the optical axis of the overhead view of (B) is biased to the left side of the image.

図15(A)および(B)と図16(A)および(B)とを比べると、本実施形態に係る画像の歪曲補正方法によれば、歪曲画像の周辺部、特に画像の左右下側の領域では、補正の精度が向上していることが明らかに観察できる。例えば、本実施形態に係る歪曲補正方法をバックガイドモニタに使用することで、自車の左右側方に近接した駐車場の白線や隣接するレーンに駐車された車両を歪曲の補正された自然な画像で確認することができる。   15A and 15B are compared with FIGS. 16A and 16B, according to the image distortion correction method according to the present embodiment, the periphery of the distorted image, particularly the lower left and right sides of the image. In this area, it can be clearly observed that the accuracy of correction is improved. For example, by using the distortion correction method according to the present embodiment for a back guide monitor, a vehicle parked in a white line of a parking lot adjacent to the left or right side of the own vehicle or an adjacent lane is corrected for distortion. Can be confirmed with images.

また、図15(C)と図16(C)とを比べると、バックガイドモニタに用いられるカメラが、自車の中央に配置できず、左右いずれかの方向にシフトさせて取り付けた場合、例えば自車の後方右側に寄せて取り付けた場合であっても、カメラから遠い自車の後方左側、すなわち、画像の右下側について、自車に近接した駐車場の白線や隣接するレーンに駐車された車両をより広範囲に歪曲の補正された自然な画像で確認することができる。   Further, when comparing FIG. 15C and FIG. 16C, when the camera used for the back guide monitor cannot be placed in the center of the own vehicle and is mounted shifted in either the left or right direction, for example, Even if it is attached to the rear right side of the vehicle, it is parked on the white line or adjacent lane of the parking lot near the vehicle on the rear left side of the vehicle far from the camera, that is, the lower right side of the image. The vehicle can be confirmed with a natural image with distortion corrected in a wider range.

本実施形態に係る画像の歪曲補正方法によれば、歪曲を伴うレンズを用いたカメラによって撮影した画像について、歪曲補正を適切に行うことができる。   According to the image distortion correction method according to the present embodiment, distortion correction can be appropriately performed on an image captured by a camera using a lens with distortion.

図17は、本発明の実施形態に係る画像の歪曲補正装置の構成を示すブロック図である。   FIG. 17 is a block diagram illustrating a configuration of an image distortion correction apparatus according to an embodiment of the present invention.

図17に示すように、本実施形態に係る画像の歪曲補正装置1は、画像を撮影する撮影手段2と、撮影手段2によって撮影された画像の歪曲を補正する画像処理手段3とを備える。また、画像の歪曲補正装置1は、画像処理手段3によって歪曲が補正された画像を表示する表示手段4を備えることができる。すなわち、表示手段4は、画像処理手段3によって歪曲が補正された画像を表示するものである。表示手段4に換えて、歪曲が補正された画像を表示することなく次段の処理手段に供するように構成してもよい。   As shown in FIG. 17, the image distortion correction apparatus 1 according to the present embodiment includes an imaging unit 2 that captures an image and an image processing unit 3 that corrects distortion of the image captured by the imaging unit 2. The image distortion correction apparatus 1 can also include display means 4 for displaying an image whose distortion has been corrected by the image processing means 3. That is, the display unit 4 displays an image whose distortion has been corrected by the image processing unit 3. Instead of the display means 4, it may be configured so as to be provided to the processing means in the next stage without displaying an image whose distortion has been corrected.

画像処理手段3は、歪曲補正部5を備える。歪曲補正部5は、本実施形態に係る画像の歪曲補正方法、すなわち、撮影手段2によって撮影された画像について、歪曲補正関数の係数を推定するに当たって使用する3次元座標値が既知のターゲットが歪曲画像に投影される領域を包含する円Cdに内包される領域、すなわち、撮影手段2の光軸と歪曲画像面との交点を中心とする半径Rdmaxの円Cdに内包される領域では、非線形最小二乗法によって係数を求めた多項式近似による歪曲補正関数を適用して歪曲画像を補正し、円Cdに内包されない領域では、ターゲットが正規化画像座標に投影された座標の像高Dが、しきい半径値Rth≦像高D≦半径Rmaxの範囲に存する点群データをもとに最小二乗法によって係数を求めた対数式近似による歪曲補正関数を適用して画像の歪曲を補正する。   The image processing unit 3 includes a distortion correction unit 5. The distortion correction unit 5 is a distortion correction method for an image according to the present embodiment, that is, a target having a known three-dimensional coordinate value used for estimating a coefficient of a distortion correction function for an image captured by the imaging unit 2 is distorted. In the region included in the circle Cd including the region projected on the image, that is, in the region included in the circle Cd having the radius Rdmax centering on the intersection of the optical axis of the imaging unit 2 and the distorted image plane, the nonlinear minimum In a region that is not included in the circle Cd by applying a distortion correction function by polynomial approximation obtained by a square method, the image height D of the coordinates at which the target is projected on the normalized image coordinates is the threshold. Distortion of an image by applying a distortion correction function by logarithmic approximation obtained by a least square method based on point cloud data in a range of radius value Rth ≦ image height D ≦ radius Rmax It is corrected.

図15(A)および(B)と図16(A)および(B)とを比べると、本実施形態に係る歪曲補正装置1によれば、歪曲画像の周辺部、特に画像の左右下側の領域では、補正の精度が向上していることが明らかに観察できる。例えば、本実施形態に係る歪曲補正方法をバックガイドモニタに使用することで、自車の左右側方に近接した駐車場の白線や隣接するレーンに駐車された車両を歪曲の補正された自然な画像で確認することができる。   15A and 15B are compared with FIGS. 16A and 16B, according to the distortion correction apparatus 1 according to the present embodiment, the peripheral portion of the distorted image, particularly the lower left and right sides of the image is displayed. In the region, it can be clearly observed that the accuracy of correction is improved. For example, by using the distortion correction method according to the present embodiment for a back guide monitor, a vehicle parked in a white line of a parking lot adjacent to the left or right side of the own vehicle or an adjacent lane is corrected for distortion. Can be confirmed with images.

また、図15(C)と図16(C)とを比べると、バックガイドモニタに用いられるカメラが、自車の中央に配置できず、左右いずれかの方向にシフトさせて取り付けた場合、例えば自車の後方右側に寄せて取り付けた場合であっても、カメラから遠い自車の後方左側、すなわち、画像の右下側について、自車に近接した駐車場の白線や隣接するレーンに駐車された車両をより広範囲に歪曲の補正された自然な画像で確認することができる。   Further, when comparing FIG. 15C and FIG. 16C, when the camera used for the back guide monitor cannot be placed in the center of the own vehicle and is mounted shifted in either the left or right direction, for example, Even if it is attached to the rear right side of the vehicle, it is parked on the white line or adjacent lane of the parking lot near the vehicle on the rear left side of the vehicle far from the camera, that is, the lower right side of the image. The vehicle can be confirmed with a natural image with distortion corrected in a wider range.

本実施形態に係る画像の歪曲補正装置によれば、歪曲を伴うレンズを用いたカメラによって撮影した画像について、歪曲補正を適切に行うことができる。   According to the image distortion correction apparatus according to the present embodiment, distortion correction can be appropriately performed on an image captured by a camera using a lens with distortion.

なお、本発明に係る画像の歪曲補正方法および歪曲補正装置は、車両等の移動体に搭載される装置に限定されるものではなく、広角レンズのカメラを用いた種々の画像処理装置に適用することができる。   The image distortion correction method and the distortion correction apparatus according to the present invention are not limited to apparatuses mounted on a moving body such as a vehicle, but are applied to various image processing apparatuses using a wide-angle lens camera. be able to.

カメラによって撮影された画像と空間の幾何学的関係を説明する図。The figure explaining the geometric relationship between the image image | photographed with the camera, and space. レンズの歪曲収差を説明する図であり、(A)はレンズの半径方向歪曲収差を説明する図、(B)は実際の空間情報を示す図、(C)および(D)は歪曲収差の例を示す図。It is a figure explaining the distortion aberration of a lens, (A) is a figure explaining the radial direction distortion aberration of a lens, (B) is a figure which shows actual spatial information, (C) and (D) are examples of distortion aberration. FIG. 歪曲画像の一例を説明する図。The figure explaining an example of a distorted image. 図3に示された歪曲画像を多項式近似による歪曲補正関数によって補正した画像の一例を説明する図。The figure explaining an example of the image which correct | amended the distortion image shown by FIG. 3 by the distortion correction function by polynomial approximation. 図3に示された歪曲画像とターゲットが存在する領域を包含する円との関係を説明する図。The figure explaining the relationship between the distorted image shown by FIG. 3, and the circle | round | yen which include the area | region where a target exists. 多項式近似による歪曲補正関数と正規化画像座標に投影されたターゲットが存在する領域を包含する円との関係を説明する図。The figure explaining the relationship between the distortion correction function by polynomial approximation, and the circle | round | yen which include the area | region where the target projected on the normalized image coordinate exists. 本発明に係る画像の歪曲補正方法を説明するフローチャート。6 is a flowchart illustrating an image distortion correction method according to the present invention. 本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数における対数式の係数の推定に用いる点群データの存する領域のしきい半径値Rthと、対数式の係数を推定する方法を説明するフローチャート。Among the image distortion correction methods according to the present invention, a method for estimating a threshold radius value Rth of a region in which point cloud data is used for estimating a coefficient of a logarithmic expression in a distortion correction function by logarithmic approximation and a coefficient of the logarithmic expression FIG. 本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数の係数を推定するに当たり使用する点群データのしきい半径値Rthと、補正された画像との関係の具体例を説明する図であり、(A)は対数式近似による歪曲補正関数と、対数式の係数を推定するに当たり使用する点群データのしきい半径値Rth=0.00との関係を説明する図、(B)はしきい半径値Rth毎に推定した歪曲補正関数によって補正された画像を示す図、(C)は(B)を変換して得た俯瞰図。In the image distortion correction method according to the present invention, a specific example of the relationship between the threshold value Rth of the point cloud data used for estimating the coefficient of the distortion correction function by logarithmic approximation and the corrected image will be described. (A) is a diagram for explaining the relationship between the distortion correction function by logarithmic approximation and the threshold radius value Rth = 0.00 of the point cloud data used for estimating the coefficient of the logarithmic equation; B is a view showing an image corrected by a distortion correction function estimated for each threshold radius value Rth, and (C) is an overhead view obtained by converting (B). 本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数の係数を推定するに当たり使用する点群データのしきい半径値Rthと、補正された画像との関係の具体例を説明する図であり、(A)は対数式近似による歪曲補正関数と、対数式の係数を推定するに当たり使用する点群データのしきい半径値Rth=0.25との関係を説明する図、(B)はしきい半径値Rth毎に推定した歪曲補正関数によって補正された画像を示す図、(C)は(B)を変換して得た俯瞰図。In the image distortion correction method according to the present invention, a specific example of the relationship between the threshold value Rth of the point cloud data used for estimating the coefficient of the distortion correction function by logarithmic approximation and the corrected image will be described. (A) is a figure explaining the relationship between the distortion correction function by logarithmic approximation and the threshold radius value Rth = 0.25 of the point cloud data used in estimating the coefficient of the logarithm. B is a view showing an image corrected by a distortion correction function estimated for each threshold radius value Rth, and (C) is an overhead view obtained by converting (B). 本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数の係数を推定するに当たり使用する点群データのしきい半径値Rthと、補正された画像との関係の具体例を説明する図であり、(A)は対数式近似による歪曲補正関数と、対数式の係数を推定するに当たり使用する点群データのしきい半径値Rth=0.50との関係を説明する図、(B)はしきい半径値Rth毎に推定した歪曲補正関数によって補正された画像を示す図、(C)は(B)を変換して得た俯瞰図。In the image distortion correction method according to the present invention, a specific example of the relationship between the threshold value Rth of the point cloud data used for estimating the coefficient of the distortion correction function by logarithmic approximation and the corrected image will be described. (A) is a diagram for explaining the relationship between the distortion correction function by logarithmic approximation and the threshold radius value Rth = 0.50 of the point cloud data used for estimating the coefficient of the logarithmic equation; B is a view showing an image corrected by a distortion correction function estimated for each threshold radius value Rth, and (C) is an overhead view obtained by converting (B). 本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数の係数を推定するに当たり使用する点群データのしきい半径値Rthと、補正された画像との関係の具体例を説明する図であり、(A)は対数式近似による歪曲補正関数と、対数式の係数を推定するに当たり使用する点群データのしきい半径値Rth=0.75との関係を説明する図、(B)はしきい半径値Rth毎に推定した歪曲補正関数によって補正された画像を示す図、(C)は(B)を変換して得た俯瞰図。In the image distortion correction method according to the present invention, a specific example of the relationship between the threshold value Rth of the point cloud data used for estimating the coefficient of the distortion correction function by logarithmic approximation and the corrected image will be described. (A) is a diagram for explaining the relationship between the distortion correction function by logarithmic approximation and the threshold radius value Rth = 0.75 of the point cloud data used for estimating the coefficient of the logarithmic equation; B is a view showing an image corrected by a distortion correction function estimated for each threshold radius value Rth, and (C) is an overhead view obtained by converting (B). 本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数の係数を推定するに当たり使用する点群データのしきい半径値Rthと、補正された画像との関係の具体例を説明する図であり、(A)は対数式近似による歪曲補正関数と、対数式の係数を推定するに当たり使用する点群データのしきい半径値Rth=1.00との関係を説明する図、(B)はしきい半径値Rth毎に推定した歪曲補正関数によって補正された画像を示す図、(C)は(B)を変換して得た俯瞰図。In the image distortion correction method according to the present invention, a specific example of the relationship between the threshold value Rth of the point cloud data used for estimating the coefficient of the distortion correction function by logarithmic approximation and the corrected image will be described. (A) is a diagram for explaining the relationship between the distortion correction function by logarithmic approximation and the threshold radius value Rth = 1.00 of the point cloud data used for estimating the coefficient of the logarithmic equation; B is a view showing an image corrected by a distortion correction function estimated for each threshold radius value Rth, and (C) is an overhead view obtained by converting (B). 本発明に係る画像の歪曲補正方法のうち、対数式近似による歪曲補正関数の係数を推定するに当たり使用する点群データのしきい半径値Rthと、補正された画像との関係の具体例を説明する図であり、(A)は対数式近似による歪曲補正関数と、対数式の係数を推定するに当たり使用する点群データのしきい半径値Rth=1.25との関係を説明する図、(B)はしきい半径値Rth毎に推定した歪曲補正関数によって補正された画像を示す図、(C)は(B)を変換して得た俯瞰図。In the image distortion correction method according to the present invention, a specific example of the relationship between the threshold value Rth of the point cloud data used for estimating the coefficient of the distortion correction function by logarithmic approximation and the corrected image will be described. (A) is a diagram for explaining the relationship between the distortion correction function by logarithmic approximation and the threshold radius value Rth = 1.25 of the point cloud data used for estimating the coefficient of the logarithmic equation; B is a view showing an image corrected by a distortion correction function estimated for each threshold radius value Rth, and (C) is an overhead view obtained by converting (B). (A)は本発明に係る画像の歪曲補正方法による補正画像の一例を示す図、(B)は(A)の補正画像を変換して得た俯瞰図、(C)は(B)の俯瞰図の光軸を画像の左側に偏らせた俯瞰図。(A) is a figure which shows an example of the correction image by the distortion correction method of the image which concerns on this invention, (B) is an overhead view obtained by converting the correction image of (A), (C) is an overhead view of (B). The bird's-eye view which biased the optical axis of a figure to the left side of the image. (A)は多項式による歪曲補正関数を用いた歪曲補正方法による補正画像の一例を示す図、(B)は(A)の補正画像を変換して得た俯瞰図、(C)は(B)の俯瞰図の光軸を画像の左側に偏らせた俯瞰図。(A) is a figure which shows an example of the correction image by the distortion correction method using the distortion correction function by a polynomial, (B) is an overhead view obtained by converting the correction image of (A), (C) is (B). FIG. 3 is an overhead view in which the optical axis of the overhead view is biased to the left side of the image. 本発明の実施形態に係る画像の歪曲補正装置の構成を示すブロック図。1 is a block diagram showing the configuration of an image distortion correction apparatus according to an embodiment of the present invention.

符号の説明Explanation of symbols

1 歪曲補正装置
2 撮影手段
3 画像処理手段
4 表示手段
5 歪曲補正部
DESCRIPTION OF SYMBOLS 1 Distortion correction apparatus 2 Imaging | photography means 3 Image processing means 4 Display means 5 Distortion correction | amendment part

Claims (1)

歪曲のあるレンズを用いたカメラで撮影した画像の歪曲を補正する歪曲補正方法において、
歪曲補正関数の係数の推定に使用するターゲットが前記画像面に投影された領域を包含する前記カメラの光軸と前記画像面との交点を中心とする円に内包される領域では、非線形最小二乗法によって係数を求めた多項式近似による歪曲補正関数を適用して画像の歪曲を補正し、
前記円に内包されない領域では、最小二乗法によって係数を求めた対数式近似による歪曲補正関数を適用して画像の歪曲を補正することを特徴とする画像の歪曲補正方法。
In a distortion correction method for correcting distortion of an image shot by a camera using a lens having distortion,
In a region included in a circle whose center is the intersection of the optical axis of the camera and the image plane, the target used for estimating the coefficient of the distortion correction function includes the region projected on the image plane. Apply a distortion correction function by polynomial approximation to find the coefficient by multiplication to correct image distortion,
An image distortion correction method for correcting image distortion by applying a distortion correction function by logarithmic approximation obtained by a least square method in an area not included in the circle.
JP2007302215A 2007-11-21 2007-11-21 Image distortion correction method Expired - Fee Related JP4872890B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007302215A JP4872890B2 (en) 2007-11-21 2007-11-21 Image distortion correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007302215A JP4872890B2 (en) 2007-11-21 2007-11-21 Image distortion correction method

Publications (2)

Publication Number Publication Date
JP2009130546A JP2009130546A (en) 2009-06-11
JP4872890B2 true JP4872890B2 (en) 2012-02-08

Family

ID=40821047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007302215A Expired - Fee Related JP4872890B2 (en) 2007-11-21 2007-11-21 Image distortion correction method

Country Status (1)

Country Link
JP (1) JP4872890B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011049733A (en) * 2009-08-26 2011-03-10 Clarion Co Ltd Camera calibration device and video distortion correction device
JP5448056B2 (en) * 2009-09-03 2014-03-19 スズキ株式会社 Distorted image correction apparatus and method
JP5555101B2 (en) * 2010-08-31 2014-07-23 株式会社日立情報通信エンジニアリング Image correction apparatus, corrected image generation method, and corrected image generation program
KR102063984B1 (en) * 2013-01-28 2020-01-08 엘지디스플레이 주식회사 Apparatus for inspecting defect and method for correcting distortion the same
JP6070262B2 (en) * 2013-02-25 2017-02-01 スズキ株式会社 Image display device
KR101705877B1 (en) * 2015-05-22 2017-02-13 라온피플 주식회사 Method and apparatus for adaptive image correction
WO2016195123A1 (en) * 2015-05-29 2016-12-08 (주)에프엑스기어 Apparatus and method for processing wide viewing angle image
JP6645140B2 (en) * 2015-11-27 2020-02-12 株式会社明電舎 Image calibration apparatus and calibration method
CN109961410B (en) * 2019-02-28 2022-12-20 中航华东光电有限公司 Optimized image pre-distortion method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153065A (en) * 1992-11-11 1994-05-31 Olympus Optical Co Ltd Image pickup device
JPH11252431A (en) * 1998-02-27 1999-09-17 Kyocera Corp Digital image-pickup device provided with distortion correction function
JP3668654B2 (en) * 1999-11-01 2005-07-06 株式会社大林組 Distortion correction method
JP2006127083A (en) * 2004-10-28 2006-05-18 Aisin Seiki Co Ltd Image processing method, and image processor
JP4250620B2 (en) * 2005-07-29 2009-04-08 キヤノン株式会社 Information processing method and apparatus

Also Published As

Publication number Publication date
JP2009130546A (en) 2009-06-11

Similar Documents

Publication Publication Date Title
JP4872890B2 (en) Image distortion correction method
JP5108605B2 (en) Driving support system and vehicle
JP5455124B2 (en) Camera posture parameter estimation device
CN105096329B (en) Method for accurately correcting image distortion of ultra-wide-angle camera
EP2770728A2 (en) Image distortion correction of a camera with a rolling shutter
CN105306805B (en) Apparatus and method for correcting image distortion of camera for vehicle
JP4414661B2 (en) Stereo adapter and range image input device using the same
CN113196007B (en) Camera system applied to vehicle
JP2009085651A (en) Image processing system
CN110660105A (en) Calibration parameter optimization method and device for panoramic looking-around system
CN113345032B (en) Initialization map building method and system based on wide-angle camera large distortion map
KR101394770B1 (en) Image stabilization method and system using curve lane model
CN107492080B (en) Calibration-free convenient monocular head image radial distortion correction method
JP2006127083A (en) Image processing method, and image processor
JP2013024712A (en) Method and system for calibrating multiple camera
CN111862225A (en) Image calibration method, calibration system and vehicle with system
JP2020150427A (en) Imaging device, imaging optical system, and moving object
KR102466305B1 (en) System and method for compensating avm tolerance
JP7303064B2 (en) Image processing device and image processing method
JP5305750B2 (en) Vehicle periphery display device and display method thereof
CN112150547A (en) Method and device for determining pose of vehicle body and look-around vision odometer system
CN111260538A (en) Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera
US20220222947A1 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings
JP7311407B2 (en) Posture estimation device and posture estimation method
JP7207889B2 (en) Range finder and in-vehicle camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees