JP2006146760A - Image transformation method and image transformation system - Google Patents
Image transformation method and image transformation system Download PDFInfo
- Publication number
- JP2006146760A JP2006146760A JP2004338558A JP2004338558A JP2006146760A JP 2006146760 A JP2006146760 A JP 2006146760A JP 2004338558 A JP2004338558 A JP 2004338558A JP 2004338558 A JP2004338558 A JP 2004338558A JP 2006146760 A JP2006146760 A JP 2006146760A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- plane
- dimensional space
- homography
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011426 transformation method Methods 0.000 title abstract 3
- 230000009466 transformation Effects 0.000 title description 5
- 238000006243 chemical reaction Methods 0.000 claims description 60
- 238000000034 method Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000001131 transforming effect Effects 0.000 abstract 2
- 239000011159 matrix material Substances 0.000 description 22
- 238000012545 processing Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 9
- 238000013519 translation Methods 0.000 description 6
- 230000014616 translation Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 239000008186 active pharmaceutical agent Substances 0.000 description 4
- 239000013256 coordination polymer Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Abstract
Description
本発明は、画像変換方法及び画像変換装置に関し、特に、3次元空間を2次元画像に投影するカメラを介して入力したカメラ画像を他の画像に変換する画像変換方法及び画像変換装置に係る。 The present invention relates to an image conversion method and an image conversion apparatus, and more particularly to an image conversion method and an image conversion apparatus for converting a camera image input via a camera that projects a three-dimensional space onto a two-dimensional image into another image.
従来、3次元空間を2次元画像に投影するカメラを介して入力したカメラ画像を他の画像に変換する方法に関しては、種々の提案がされており、例えば、非特許文献1には、カメラの内部パラメータと外部パラメータのそれぞれを用いて、2次元画像面と3次元空間の間の変換関係を計算する方法が開示されている。同様に、非特許文献2にも、カメラの内部パラメータと外部パラメータのそれぞれの値を校正する方法が開示されている。また、特許文献1においては、車両周辺画像処理装置に関し、画像面と路面との投影関係が開示されている。
Conventionally, various proposals have been made regarding a method of converting a camera image input via a camera that projects a three-dimensional space onto a two-dimensional image into another image. A method for calculating a conversion relationship between a two-dimensional image plane and a three-dimensional space using each of an internal parameter and an external parameter is disclosed. Similarly, Non-Patent Document 2 discloses a method for calibrating the values of the internal parameters and external parameters of the camera.
尚、下記の非特許文献3乃至5には、本発明の基礎となる画像処理技術等の技術情報が開示されているが、これらについては、本発明の実施形態の説明の一環として後述する。 Non-Patent Documents 3 to 5 below disclose technical information such as image processing technology that is the basis of the present invention, which will be described later as part of the description of embodiments of the present invention.
前掲の非特許文献1に記載の方法を用いるためには、カメラの全パラメータを決定する必要があり、例えば車両に搭載されたカメラを対象とする場合には、それぞれのパラメータの持つ公差のために、高精度な投影変換が困難である。また、非特許文献2においても、2次元画像面と3次元空間の間の変換関係を計算するために、カメラの内部パラメータと外部パラメータのそれぞれを用いることを前提としており、やはり、車両に搭載されたカメラを扱う場合には、それぞれのパラメータの持つ公差のために、高精度な投影変換が困難である。
In order to use the method described in the above-mentioned
また、前掲の特許文献1においても、2次元画像面と3次元空間の間の変換関係を計算するために、カメラの内部パラメータと外部パラメータのそれぞれを用いることを前提としており、車両に搭載されたカメラを扱う場合、それぞれのパラメータの持つ公差のために、高精度な投影変換が困難である。この問題は画像面と3次元路面との間の座標変換関係において、カメラの内部パラメータと外部パラメータが何らかの校正方法により既知であるということを前提としていることに起因している。
Also, in the above-mentioned
そこで、本発明は、カメラの内部パラメータ及び外部パラメータを必要とすることなく、カメラ画像を、カメラの視界内の3次元空間に応じて所定の画像に高精度で変換し得る画像変換方法を提供することを課題とする。 Therefore, the present invention provides an image conversion method capable of converting a camera image into a predetermined image with high accuracy in accordance with a three-dimensional space in the camera field of view without requiring internal parameters and external parameters of the camera. The task is to do.
また、本発明は、カメラの内部パラメータ及び外部パラメータを必要とすることなく、カメラ画像を、上記所定の画像に高精度で変換し得る画像変換装置を提供し、更に、前記カメラを車両に搭載し、変換後の画像を容易に表示し得る画像変換装置を提供することを別の課題とする。 The present invention also provides an image conversion device capable of converting a camera image into the predetermined image with high accuracy without requiring an internal parameter and an external parameter of the camera, and further mounting the camera on a vehicle. Another object is to provide an image conversion apparatus that can easily display a converted image.
上記の課題を達成するため、本発明は、請求項1に記載のように、3次元空間を2次元画像に投影するカメラを介して入力したカメラ画像を他の画像に変換する画像変換方法において、前記カメラの視界内の3次元空間に包含される第1の平面と、前記カメラを介して入力した画像に対応する第2の平面に共通して包含される少なくとも4点の対応関係に基づき、前記第1の平面と前記第2の平面との間のホモグラフィを演算し、該ホモグラフィによって、前記カメラ画像を、前記カメラの視界内の3次元空間に応じて所定の画像に変換することとしたものである。
In order to achieve the above object, the present invention provides an image conversion method for converting a camera image input via a camera that projects a three-dimensional space onto a two-dimensional image into another image as described in
また、本発明の画像変換装置は、請求項2に記載のように、3次元空間を2次元画像に投影するカメラを備え、該カメラを介して入力したカメラ画像を他の画像に変換する画像変換装置において、前記カメラの視界内の3次元空間に包含される第1の平面と、前記カメラを介して入力した画像に対応する第2の平面に共通して包含される少なくとも4点の対応関係に基づき、前記第1の平面と前記第2の平面との間のホモグラフィを演算するホモグラフィ演算手段と、該ホモグラフィ演算手段が演算したホモグラフィによって、前記カメラ画像を、前記カメラの視界内の3次元空間に応じて所定の画像に変換する変換手段を供えることとしたものである。 According to a second aspect of the present invention, an image conversion apparatus includes a camera that projects a three-dimensional space onto a two-dimensional image, and an image that converts a camera image input via the camera into another image. In the conversion device, correspondence between at least four points commonly included in the first plane included in the three-dimensional space in the field of view of the camera and the second plane corresponding to the image input via the camera. Based on the relationship, the camera image is obtained by the homography computing means for computing the homography between the first plane and the second plane, and the homography computed by the homography computing means. A conversion means for converting to a predetermined image according to the three-dimensional space in the field of view is provided.
更に、本発明の画像変換装置は、請求項3に記載のように、前記カメラ、前記ホモグラフィ演算手段及び前記変換手段を車両に搭載すると共に、前記所定の画像を表示する表示手段を備えたものとすることができる。この場合において、前記表示手段は、請求項4に記載のように、前記カメラ画像の幾何学的形状を変更して表示するように構成することができる。 Furthermore, as described in claim 3, the image conversion apparatus of the present invention includes the camera, the homography calculation unit, and the conversion unit mounted on a vehicle, and a display unit that displays the predetermined image. Can be. In this case, the display means can be configured to change and display the geometric shape of the camera image.
また、前記変換手段は、請求項5に記載のように、前記カメラ画像を、前記カメラの視界内の3次元空間に対し前記カメラの視点とは異なる視点から見た画像に変換し、該画像を前記表示手段が表示するように構成することができる。 In addition, as described in claim 5, the conversion unit converts the camera image into an image viewed from a viewpoint different from the viewpoint of the camera with respect to a three-dimensional space in the field of view of the camera. Can be configured to be displayed by the display means.
本発明は上述のように構成されているので以下の効果を奏する。即ち、請求項1に記載の画像変換方法においては、カメラの視界内の3次元空間に包含される第1の平面と、カメラを介して入力した画像に対応する第2の平面に共通して包含される少なくとも4点の対応関係に基づき、第1の平面と第2の平面との間のホモグラフィを演算し、このホモグラフィによって、カメラ画像を、カメラの視界内の3次元空間に応じて所定の画像に変換することとしているので、カメラの内部パラメータ及び外部パラメータが何れも未知であっても、カメラ画像中の4点を、元の3次元空間における平面上の4点として高精度で復元することができる。
Since this invention is comprised as mentioned above, there exist the following effects. That is, in the image conversion method according to
また、本発明の画像変換装置によれば、前記ホモグラフィ演算手段が演算したホモグラフィによって、カメラ画像を、カメラの視界内の3次元空間に応じて所定の画像に変換することとしているので、カメラの内部パラメータ及び外部パラメータが何れも未知であっても、カメラ画像中の4点を、元の3次元空間における平面上の4点として適切に復元することができる。この場合において、カメラの焦点距離や原点位置等のカメラの内部パラメータは未知でよく、しかも、3次元空間中のカメラの位置及び姿勢の情報であるカメラの外部パラメータも未知でよいので、カメラの設置及び装着条件が緩和される。 Further, according to the image conversion apparatus of the present invention, the camera image is converted into a predetermined image according to the three-dimensional space in the field of view of the camera by the homography calculated by the homography calculating means. Even if the internal parameters and external parameters of the camera are unknown, the four points in the camera image can be appropriately restored as the four points on the plane in the original three-dimensional space. In this case, the internal parameters of the camera such as the focal length and the origin position of the camera may be unknown, and the external parameters of the camera that are information on the position and orientation of the camera in the three-dimensional space may also be unknown. Installation and installation conditions are eased.
また、請求項3に記載のように構成し、車両に搭載したものとすることができ、この場合にも、カメラの内部パラメータ及び外部パラメータが何れも未知であっても、表示画像中の4点を、元の3次元空間における平面上の4点として適切に復元することができる。 Further, it can be configured as described in claim 3 and can be mounted on a vehicle. In this case, even if both the internal parameter and the external parameter of the camera are unknown, A point can be appropriately restored as four points on a plane in the original three-dimensional space.
更に、請求項4及び請求項5に記載のように構成すれば、例えば、車両周辺の状況を把握するための画像表示システム、走路を認識するシステム、障害物を検出するシステム等に有効に適用することができる。 Furthermore, if configured as described in claim 4 and claim 5, it is effectively applied to, for example, an image display system for grasping the situation around the vehicle, a system for recognizing a runway, a system for detecting an obstacle, etc. can do.
上記の構成になる本発明の画像変換方法の具体的一態様について、以下に図面を参照して説明する。最初に、本発明が前提とするカメラ技術について図8乃至11を参照して説明した後、図1及び図2を参照して本発明の実施形態を説明する。先ず、カメラ座標系を図8に示すように定義する。即ち、非特許文献3で説明されているように、カメラの光学中心Cを座標原点とし、3次元座標のX軸とY軸を、それぞれ画像面上のx軸およびy軸に平行にとり、Z軸を光軸l0に対し平行にとっている。光学中心Cから画像面πに垂直に引いた直線l0を「光軸」と言い、光軸と画像面との交点xCを「画像中心」と言う。 A specific aspect of the image conversion method of the present invention having the above configuration will be described below with reference to the drawings. First, camera technology on which the present invention is premised will be described with reference to FIGS. 8 to 11, and then embodiments of the present invention will be described with reference to FIGS. First, the camera coordinate system is defined as shown in FIG. That is, as described in Non-Patent Document 3, the optical center C of the camera is the coordinate origin, and the X-axis and Y-axis of the three-dimensional coordinate are taken in parallel with the x-axis and y-axis on the image plane, respectively. The axis is parallel to the optical axis l 0 . A straight line l 0 drawn perpendicularly to the image plane π from the optical center C is referred to as an “optical axis”, and an intersection x C between the optical axis and the image plane is referred to as an “image center”.
図8において、3次元空間中で(X,Y,Z)の座標を持つ点X=[X,Y,Z]Tが、2次元画像上で(x,y)の位置の点x=[x,y]Tに投影される。尚、大文字のX等は3次元を表し、小文字のx等は2次元を表す。また、「T」は転置行列を意味する。焦点距離をf=1とすれば、図8の2次元画像上の点を3次元空間中の点と考えると、その位置は(x,y,1)である。図8から明らかなように、このカメラによる投影では、2次元画像上の点のxとfの比が3次元空間中の点のXとZの比に等しく、またyとfの比がYとZの比に等しい。従って、3次元空間中の点とその投影像との間には、下記[数1]式の関係が成り立ち、このような投影を「透視投影」と言う。 In FIG. 8, a point X = [X, Y, Z] T having coordinates (X, Y, Z) in a three-dimensional space is a point x = [[x, y) on the two-dimensional image. x, y] T. In addition, capital X etc. represent three dimensions, and small letter x etc. represent two dimensions. “ T ” means a transposed matrix. If the focal length is f = 1, the position on the two-dimensional image in FIG. 8 is (x, y, 1) when considered as a point in the three-dimensional space. As is apparent from FIG. 8, in the projection by this camera, the ratio of x and f of the point on the two-dimensional image is equal to the ratio of X and Z of the point in the three-dimensional space, and the ratio of y and f is Y. Is equal to the ratio of Z. Therefore, the relationship of the following [Equation 1] is established between the point in the three-dimensional space and the projected image, and such a projection is called “perspective projection”.
上記[数1]式の透視投影は、斉次座標を用いて下記[数2]式のように、行列演算の形で表すことができる。 The perspective projection of the above [Equation 1] can be expressed in the form of a matrix operation as shown in the following [Equation 2] using homogeneous coordinates.
[数2]式においてλは任意の実数であり、[数2]式は[数1]式と同じ投影を表している。尚、[数2]式は下記[数3]式のように簡単化して表す。 In [Expression 2], [lambda] is an arbitrary real number, and [Expression 2] represents the same projection as [Expression 1]. [Expression 2] is simplified and expressed as the following [Expression 3].
上記[数3]式において、Pfは下記[数4]のとおりである。 In the above [Equation 3], Pf is as shown in [Equation 4] below.
ところで、コンピュータ上で扱う画像データは、その原点をどこにとるか、画素座標値としての細分方法や縦横比は、設計により変わるものである。即ち、コンピュータ上で扱う画像データは物理的な大きさや位置とは無関係な画素単位の画像座標に基づいている。従って、実際のカメラをモデル化する場合には、物理的座標xから画像座標mに変換する必要がある。この変換は原点位置合わせのための平行移動、縦横のスケール変換及び焦点距離に応じたスケール変換を組み合わせたものであり、次のように表される。 By the way, the image data handled on the computer is where the origin is taken, and the subdivision method and aspect ratio as pixel coordinate values vary depending on the design. That is, the image data handled on the computer is based on image coordinates in pixel units that are unrelated to the physical size and position. Therefore, when modeling an actual camera, it is necessary to convert from physical coordinates x to image coordinates m. This conversion is a combination of parallel movement for origin position alignment, vertical and horizontal scale conversion, and scale conversion according to the focal length, and is expressed as follows.
ここで、上記[数5]式の前段は[m1,m2,m3]Tで表され、画像座標m=[u,v]Tの斉次座標であって、下記[数6]式の同値関係が成り立つように設定する。即ち、u=m1/m3,v=m2/m3である。 Here, the preceding stage of the above [Equation 5] is represented by [m 1 , m 2 , m 3 ] T and is a homogeneous coordinate of the image coordinates m = [u, v] T , and the following [Equation 6] Set so that the equivalence relation of the expression holds. That is, u = m 1 / m 3 and v = m 2 / m 3 .
また、Aは物理的座標xを画像座標mに変換する行列であり、焦点距離f、画像中心の座標(u0,v0)、u及びv方向のスケール・ファクターku,kv、及び、せん断係数ksによって下記[数7]のように表される。尚、この「せん断係数」は、平行性は保つが直角性は保たないような変形(せん断変形) を発生させる係数である。 A is a matrix for converting physical coordinates x into image coordinates m, and includes focal length f, image center coordinates (u 0 , v 0 ), u and v direction scale factors k u , k v , and The following [Equation 7] is expressed by the shear coefficient k s . This “shear coefficient” is a coefficient that causes deformation (shear deformation) that maintains parallelism but does not maintain perpendicularity.
上記[数3]及び[数5]により、3次元空間中の点Xは、2次元画像上の画素mに対し下記[数8]のように投影される。ここで、Aは「カメラ校正行列」と言い、更に詳細には、上記[数7]から明らかなように、カメラの内部パラメータによって構成される行列であるので、「カメラの内部パラメータ行列」と呼ぶ。 By the above [Equation 3] and [Equation 5], the point X in the three-dimensional space is projected to the pixel m on the two-dimensional image as shown in the following [Equation 8]. Here, A is referred to as a “camera calibration matrix”, and more specifically, as is apparent from the above [Equation 7], it is a matrix constituted by camera internal parameters. Call.
次に、複数のカメラ間の関係や、同一のカメラであっても複数の位置に移動することを考慮し、あるいは、そのカメラと対象物との関係を考慮する際には、基準となる座標系を設定するとよい。この場合に、図9に示すように、考慮されるカメラの数や位置、対象物に対して共通に決められた座標が、「ワールド座標」と定義される。このワールド座標(Xwとする)からカメラ座標Xへは、3次元の回転R及び並進Tによって下記[数9]式のように変換される。 Next, when considering the relationship between multiple cameras, moving to multiple positions even for the same camera, or when considering the relationship between the camera and the object, reference coordinates Set the system. In this case, as shown in FIG. 9, the coordinates determined in common for the number and positions of the cameras to be considered and the object are defined as “world coordinates”. From the world coordinates ( Xw ) to the camera coordinates X is converted by the three-dimensional rotation R and translation T as shown in the following [Equation 9].
3次元の回転R及び並進Tは、夫々、X軸回り、Y軸回り、Z軸回りの回転θx,θy,θz及びX軸方向、Y軸方向、Z軸方向の並進TX,TY,TZより成り、夫々、下記[数10]及び[数11]のように表される。 The three-dimensional rotation R and translation T are respectively the rotations θ x , θ y , θ z around the X axis, the Y axis, and the Z axis, and the translations T X , X axis, Y axis, and Z axis. It consists of T Y and T Z and is expressed as the following [Equation 10] and [Equation 11], respectively.
前掲の[数9]式は、斉次座標を用いれば下記[数12]式のように表すことができる。 [Equation 9] can be expressed as the following [Equation 12] using homogeneous coordinates.
ここで、Mは回転Rと並進Tを組み合わせた4×4行列であり、下記[数13]のとおりである。つまり、Mはワールド座標に対する姿勢(回転)及び位置(並進)によって決まる行列である。そして、これらの回転及び並進は「カメラの外部パラメータ」と言い、前述のAを「カメラの内部パラメータ行列」と呼ぶのに対し、Mを「カメラの外部パラメータ行列」と呼ぶ。 Here, M is a 4 × 4 matrix in which the rotation R and the translation T are combined, as shown in [Equation 13] below. That is, M is a matrix determined by the attitude (rotation) and position (translation) with respect to the world coordinates. These rotations and translations are referred to as “camera external parameters”, and A is referred to as “camera internal parameter matrix”, whereas M is referred to as “camera external parameter matrix”.
上記[数8]及び[数12]により、ワールド座標系における3次元空間の点Xは2次元画像上の点mに次のように投影される。 From the above [Equation 8] and [Equation 12], the point X in the three-dimensional space in the world coordinate system is projected to the point m on the two-dimensional image as follows.
上記[数14]式において、Pは下記[数15]で表される3×4行列である。尚、[数14]式においては、ワールド座標XwがXで置き直されているが、以後、ワールド座標とカメラ座標に対して記号を区別することなく、ともにXで表すこととする。 In the above [Expression 14], P is a 3 × 4 matrix expressed by the following [Expression 15]. In the [Equation 14] where it world coordinates X w is repositioned in X, hereinafter without distinguishing symbol relative to the world coordinate and the camera coordinate, and that both represented by X.
而して、上記[数14]式で表されるカメラモデルを「透視カメラモデル」と言う。また、Pは「透視カメラ行列」と呼び、カメラの内部パラメータ及び外部パラメータによって構成される。従って、Pが求まれば、これをA、R、Tに分解することができる。そして、A、R、Tが共に既知、即ちPが既知である場合には、そのカメラは「校正済みである」といい、これらが未知の場合には「カメラが未校正である」という。従って、A、R、Tを求めることを「カメラの校正」と呼ぶ。 Thus, the camera model represented by the above [Expression 14] is referred to as a “perspective camera model”. P is referred to as a “perspective camera matrix” and is composed of camera internal parameters and external parameters. Therefore, if P is obtained, it can be decomposed into A, R, and T. When all of A, R, and T are known, that is, when P is known, the camera is said to be “calibrated”, and when these are unknown, the camera is said to be “uncalibrated”. Therefore, obtaining A, R, and T is called “camera calibration”.
上記の「透視カメラモデル」では、カメラ行列PがA、R、Tで構成されているが、カメラ行列Pを3×4行列で一般化して表すと、下記[数16]のようになる。 In the above-mentioned “perspective camera model”, the camera matrix P is composed of A, R, and T. When the camera matrix P is generalized by a 3 × 4 matrix, the following [Equation 16] is obtained.
上記のPpは下記[数17]のような3×4行列である。このように一般化された3×4行列で表されたカメラモデルを「射影カメラモデル」と言い、Ppを「射影カメラ行列」と呼ぶ。 The above P p is a 3 × 4 matrix as shown in [Equation 17] below. The camera model represented by the generalized 3 × 4 matrix is called “projection camera model”, and P p is called “projection camera matrix”.
上記[数17]に示すように、Ppは3×4行列でその要素の数は12個である。しかし、上記[数16]式は斉次座標で表されており、Ppを定数倍しても全く同じカメラモデルを表すことになるため、その自由度は12ではなく11である。而して、「透視カメラ」は、このような「射影カメラ」によって一般化することができる。 As shown in [Equation 17] above, P p is a 3 × 4 matrix and the number of elements is twelve. However, the above [Expression 16] is expressed by homogeneous coordinates, and even if P p is multiplied by a constant, the same camera model is represented, so the degree of freedom is 11 instead of 12. Thus, the “perspective camera” can be generalized by such a “projection camera”.
次に、図10に示すように、ワールド座標をZ=0の平面に限定すると、上記の3×4行列を、下記[数18]式のように3×3行列に簡単化することができるが、この3×3行列は一般的な「平面射影変換」(ホモグラフィ)を表す。 Next, as shown in FIG. 10, when the world coordinates are limited to the plane of Z = 0, the above 3 × 4 matrix can be simplified to a 3 × 3 matrix as shown in the following [Equation 18]. However, this 3 × 3 matrix represents a general “plane projection transformation” (homography).
ここで、図11に示すような2つの平面πと平面Πを考えたときに、夫々の平面上の点xとx'との関係は、下記[数19]式のように表すことができる。 Here, when two planes π and plane Π as shown in FIG. 11 are considered, the relationship between the points x and x ′ on the respective planes can be expressed as the following [Equation 19]. .
あるいは、3×3の正則行列(但し、行列式は0ではない)を用いて、下記[数20]のように表すこともでき、このHをホモグラフィと言う。 Alternatively, a 3 × 3 regular matrix (however, the determinant is not 0) can also be expressed as [Equation 20] below, and this H is called homography.
そして、上記の[数20]は下記[数21]式のように表すこともできる。 The above [Equation 20] can also be expressed as the following [Equation 21].
更に、ホモグラフィHの要素において、各平面で対応する点に対し下記の[数22]及び[数23]の2つの線形方程式が得られる。これは、平面上の任意の4点は他の平面上の4点に射影的に変換可能であることを表している。 Further, in the element of the homography H, the following two linear equations [Equation 22] and [Equation 23] are obtained for the corresponding points in each plane. This indicates that any four points on a plane can be projectively converted to four points on another plane.
上記の関係を整理すると、透視カメラモデルでは図12のように複数の変換を重ねることになるが、射影カメラモデルでは図13のように簡単な計算で変換される。尚、図12及び図13における「D」は、画像の歪に対して補正処理を行うための歪曲補正係数である。 When the above relationship is arranged, in the perspective camera model, a plurality of conversions are repeated as shown in FIG. 12, but in the projection camera model, the conversion is performed by a simple calculation as shown in FIG. Note that “D” in FIGS. 12 and 13 is a distortion correction coefficient for performing correction processing on image distortion.
本発明は、上記のようにホモグラフィを用いて画像変換を行うもので、その一実施形態を図1に示す。図1におけるカメラCMとしては、3次元空間を2次元画像に投影するカメラであれば、どのような態様であってもよい。この実施形態においては、カメラCMの視界内の3次元空間に包含される第1の平面S1と、カメラCMを介して入力した画像に対応する第2の平面S2に共通して包含される少なくとも4点の対応関係に基づき、第1の平面S1と第2の平面S2との間のホモグラフィを演算するホモグラフィ演算手段HMと、このホモグラフィ演算手段HMが演算したホモグラフィによって、カメラ画像を、カメラの視界内の3次元空間に応じて所定の画像に変換する変換手段CVを具備している。 The present invention performs image conversion using homography as described above, and an embodiment thereof is shown in FIG. The camera CM in FIG. 1 may take any form as long as it is a camera that projects a three-dimensional space onto a two-dimensional image. In this embodiment, at least the first plane S1 included in the three-dimensional space in the field of view of the camera CM and at least the second plane S2 corresponding to the image input via the camera CM are included. Based on the correspondence of the four points, the camera image is obtained by the homography computing means HM for computing the homography between the first plane S1 and the second plane S2, and the homography computed by the homography computing means HM. Is converted to a predetermined image according to a three-dimensional space in the field of view of the camera.
本発明のカメラ等は移動体に搭載してもよく、図2に示すように、図1の装置を車両VHに搭載すると共に、上記所定の画像を表示する表示手段DSを備えたものとすることができる。この表示手段DSは、カメラ画像の幾何学的形状を変更して表示するように構成することができる。また、変換手段CVにおいては、カメラ画像を、カメラの視界内の3次元空間に対しカメラの視点とは異なる視点から見た画像に変換し、この画像を表示手段DSが表示するように構成することもできる。 The camera or the like of the present invention may be mounted on a moving body, and as shown in FIG. 2, the apparatus of FIG. 1 is mounted on a vehicle VH and includes display means DS for displaying the predetermined image. be able to. This display means DS can be configured to change and display the geometric shape of the camera image. The conversion means CV converts the camera image into an image viewed from a viewpoint different from the viewpoint of the camera with respect to the three-dimensional space in the camera field of view, and the display means DS displays the image. You can also.
而して、上記の画像変換装置を、例えば、車両周辺の状況を把握するための画像表示システム、走路を認識するシステム、障害物を検出するシステム等に適用することができ、その一例として駐車支援装置に適用した具体的構成例を図3に示す。本実施形態においては、図示しない車両の後方に、カメラCM(例えばCCDカメラ)が装着されており、路面を含む車両後方の視界が連続して撮像される。カメラCMの映像信号は、ビデオ入力バッファ回路VB、同期分離回路SYを経てA/D変換されフレームメモリFMに格納される。このフレームメモリFMに格納された画像データは、画像処理部VCで処理される。画像処理部VCは、画像データ制御部VP、歪曲補正部CP、特徴点検出部SP、座標変換部KP、及び認識処理部LPで構成されている。 Thus, the above image conversion device can be applied to, for example, an image display system for grasping the situation around the vehicle, a system for recognizing a runway, a system for detecting an obstacle, etc. A specific configuration example applied to the support device is shown in FIG. In the present embodiment, a camera CM (for example, a CCD camera) is mounted behind a vehicle (not shown), and the field of view behind the vehicle including the road surface is continuously imaged. The video signal of the camera CM is A / D converted through the video input buffer circuit VB and the sync separation circuit SY and stored in the frame memory FM. The image data stored in the frame memory FM is processed by the image processing unit VC. The image processing unit VC includes an image data control unit VP, a distortion correction unit CP, a feature point detection unit SP, a coordinate conversion unit KP, and a recognition processing unit LP.
画像処理部VCにおいては、フレームメモリFM内の画像データから、画像データ制御部VPでアドレス指定されたデータが呼び出されて歪曲補正部CPに送られ、ここで歪曲補正処理が行われる。例えば、図4に示すように、カメラCMによる画像が歪曲した画像となっている場合には、歪曲補正部CPにて補正処理が行われ、図5の上側に示す画像とされる(従って、図5の上下の点描部分はカメラ画像ではない)。このように歪曲補正された画像上において、特徴点検出部CPにて駐車区画の四隅の4点が検出される。 In the image processing unit VC, data addressed by the image data control unit VP is called from the image data in the frame memory FM and sent to the distortion correction unit CP, where distortion correction processing is performed. For example, as shown in FIG. 4, when the image from the camera CM is a distorted image, the distortion correction unit CP performs a correction process to obtain the image shown in the upper side of FIG. The upper and lower stipple parts in FIG. 5 are not camera images). On the distortion corrected image, the feature point detector CP detects four points at the four corners of the parking section.
そして、図3の座標変換部KPにおいては、予め校正されたホモグラフィのパラメータによって、カメラ画像が、上空から見た画像に変換される。即ち、図5の上側に示すように図4の画像が歪曲補正された画像から、駐車区画の四隅の4点が検出され、それらの4点が元の駐車区画の形状に一致するように、前述のホモグラフィHによる変換が行われると、図5の下側に示すように、上空から見た画像に変換され、元の長方形の駐車区画として復元される。而して、図5に示す態様は、カメラCMの視界内の3次元空間に対しカメラCMの視点とは異なる視点から見た画像に変換して表示するように構成されたものである。尚、認識処理部LPにて駐車区画が認識され、描画部DP及び表示コントローラDCを介して画像信号が出力されるが、これらの処理は本発明に直接関係するものではないので、詳細な説明は省略する。 In the coordinate conversion unit KP in FIG. 3, the camera image is converted into an image viewed from the sky by the homography parameters calibrated in advance. That is, as shown in the upper side of FIG. 5, four points at the four corners of the parking area are detected from the image obtained by correcting the distortion of the image of FIG. 4, and these four points match the shape of the original parking area. When the above-described conversion by the homography H is performed, as shown in the lower side of FIG. 5, the image is converted into an image viewed from above and restored as an original rectangular parking section. Thus, the mode shown in FIG. 5 is configured to convert and display an image viewed from a viewpoint different from the viewpoint of the camera CM with respect to the three-dimensional space in the field of view of the camera CM. Note that the parking section is recognized by the recognition processing unit LP and an image signal is output via the drawing unit DP and the display controller DC, but these processes are not directly related to the present invention. Is omitted.
一方、上記の画像変換装置を走路認識システムに適用し、走路の白線認識に用いる場合には、カメラ画像からエッジ点を検出し、それを路面座標に当てはめて走路の境界線として検出することができる。この場合には、路面座標に投影するときに、前述のホモグラフィHによる画像変換を適用することができる。 On the other hand, when the above image conversion apparatus is applied to a road recognition system and used for white line recognition of a road, an edge point is detected from a camera image and applied to road surface coordinates to detect it as a road boundary line. it can. In this case, when projecting onto the road surface coordinates, the above-described image conversion by the homography H can be applied.
次に、前述のホモグラフィHにより画像変換を行った別の実験例を説明する。図6及び図7は他の実験例を図示したもので、既知のサイズの正方形の集合で作られた市松模様のパターンを撮影し、図6のカメラ画像に対して歪曲補正を行った後に、射影変換を行ったものである。図7においても、元は長方形であった4点が、図7の下側に示すように、長方形として復元されている。 Next, another experimental example in which image conversion is performed by the above-described homography H will be described. FIG. 6 and FIG. 7 illustrate another experimental example. After shooting a checkered pattern made of a set of squares of a known size and performing distortion correction on the camera image of FIG. Projective transformation is performed. Also in FIG. 7, the four points that were originally rectangular are restored as rectangles as shown in the lower side of FIG.
以上のように、内部パラメータは未知であり(画像の歪曲は補正されているとし)、3次元空間における平面上の配置が既知である任意の4点と、夫々に対応する画像中の4点の対応づけを、前述のホモグラフィHによって行うことにより、カメラの外部パラメータが未知であっても、画像中の4点を、元の3次元空間における平面上の4点として復元することができる。この場合において、カメラの設置及び装着状態、例えば、カメラの高さやチルト角等の3次元空間中のカメラの位置及び姿勢の情報であるカメラの外部パラメータRとTは必要とせず、これらは未知でよいので、カメラの設置及び装着条件が緩和されると共に、2次元画像と3次元空間内の平面との間の変換精度が向上する。 As described above, the internal parameters are unknown (assuming that the distortion of the image is corrected), and any four points whose arrangement on the plane in the three-dimensional space is known, and four points in the corresponding image, respectively. Is performed by the above-described homography H, so that the four points in the image can be restored as the four points on the plane in the original three-dimensional space even if the external parameters of the camera are unknown. . In this case, camera external parameters R and T, which are information about the position and orientation of the camera in the three-dimensional space, such as the camera height and tilt angle, are not required, and these are unknown. Therefore, the installation and mounting conditions of the camera are eased, and the conversion accuracy between the two-dimensional image and the plane in the three-dimensional space is improved.
特に、2画像間の4点の変換関係をホモグラフィHによって求めることとしているので、カメラの焦点距離や原点位置等のカメラの内部パラメータは未知でよく、しかも、カメラが搭載されている高さや角度等のカメラの外部パラメータも未知でよいので、高精度な変換を簡単な方法で実現することができ、射影カメラモデルを用いることによって演算を簡略化することができる。尚、本発明は、上記のような車両等の移動体に搭載される装置に限定されるものではなく、カメラ画像を用いる種々の装置に適用することができる。 In particular, since the four-point conversion relationship between two images is determined by homography H, the internal parameters of the camera such as the focal length and origin position of the camera may be unknown, and the height at which the camera is mounted Since external parameters of the camera such as the angle may be unknown, high-accuracy conversion can be realized by a simple method, and the calculation can be simplified by using the projection camera model. In addition, this invention is not limited to the apparatus mounted in moving bodies, such as the above vehicles, It can apply to the various apparatuses which use a camera image.
CM カメラ
HM ホモグラフィ演算手段
CV 変換手段
DS 表示手段
VB ビデオ入力バッファ回路
SY 同期分離回路
FM フレームメモリ
VC 画像処理部
CM camera HM homography calculation means CV conversion means DS display means VB video input buffer circuit SY sync separation circuit FM frame memory VC image processing section
Claims (5)
The converting means converts the camera image into an image viewed from a viewpoint different from the viewpoint of the camera with respect to a three-dimensional space in the field of view of the camera, and the display means displays the image. The image conversion apparatus according to claim 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004338558A JP2006146760A (en) | 2004-11-24 | 2004-11-24 | Image transformation method and image transformation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004338558A JP2006146760A (en) | 2004-11-24 | 2004-11-24 | Image transformation method and image transformation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006146760A true JP2006146760A (en) | 2006-06-08 |
Family
ID=36626342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004338558A Pending JP2006146760A (en) | 2004-11-24 | 2004-11-24 | Image transformation method and image transformation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006146760A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008021161A (en) * | 2006-07-13 | 2008-01-31 | Mitsubishi Fuso Truck & Bus Corp | Driving state determining device |
KR100844129B1 (en) | 2006-09-13 | 2008-07-04 | 한국전자통신연구원 | A paratus for interfacing a mouse using a camera image, system and method using the paratus, computer readable record medium on which a program therefore is recorded |
JP2012086285A (en) * | 2010-10-15 | 2012-05-10 | Seiko Epson Corp | Tracking robot device, tracking robot control method, tracking robot control program, homography matrix acquisition device, homography matrix acquisition method, and homography matrix acquisition program |
WO2019107060A1 (en) * | 2017-11-30 | 2019-06-06 | 三菱電機株式会社 | Illumination control system and illumination control method |
CN110458788A (en) * | 2015-04-03 | 2019-11-15 | 康耐视公司 | Homography correction |
JP2022519462A (en) * | 2019-01-18 | 2022-03-24 | ソニーグループ株式会社 | Point cloud coding using homography transformation |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11232466A (en) * | 1998-02-10 | 1999-08-27 | Honda Motor Co Ltd | Road shape reognition device |
JP2001319218A (en) * | 2000-02-29 | 2001-11-16 | Hitachi Ltd | Image monitoring device |
JP2002087160A (en) * | 2000-09-18 | 2002-03-26 | Denso Corp | Vehicular surrounding image processing device and recording medium |
JP2003030626A (en) * | 2001-07-18 | 2003-01-31 | Toshiba Corp | Image processor and method therefor |
JP2004078285A (en) * | 2002-08-09 | 2004-03-11 | Toyota Motor Corp | Image processor and image processing method |
JP2005286685A (en) * | 2004-03-30 | 2005-10-13 | Hitachi Ltd | Image generating apparatus, system or image composite method |
-
2004
- 2004-11-24 JP JP2004338558A patent/JP2006146760A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11232466A (en) * | 1998-02-10 | 1999-08-27 | Honda Motor Co Ltd | Road shape reognition device |
JP2001319218A (en) * | 2000-02-29 | 2001-11-16 | Hitachi Ltd | Image monitoring device |
JP2002087160A (en) * | 2000-09-18 | 2002-03-26 | Denso Corp | Vehicular surrounding image processing device and recording medium |
JP2003030626A (en) * | 2001-07-18 | 2003-01-31 | Toshiba Corp | Image processor and method therefor |
JP2004078285A (en) * | 2002-08-09 | 2004-03-11 | Toyota Motor Corp | Image processor and image processing method |
JP2005286685A (en) * | 2004-03-30 | 2005-10-13 | Hitachi Ltd | Image generating apparatus, system or image composite method |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008021161A (en) * | 2006-07-13 | 2008-01-31 | Mitsubishi Fuso Truck & Bus Corp | Driving state determining device |
KR100844129B1 (en) | 2006-09-13 | 2008-07-04 | 한국전자통신연구원 | A paratus for interfacing a mouse using a camera image, system and method using the paratus, computer readable record medium on which a program therefore is recorded |
JP2012086285A (en) * | 2010-10-15 | 2012-05-10 | Seiko Epson Corp | Tracking robot device, tracking robot control method, tracking robot control program, homography matrix acquisition device, homography matrix acquisition method, and homography matrix acquisition program |
CN110458788A (en) * | 2015-04-03 | 2019-11-15 | 康耐视公司 | Homography correction |
CN110458788B (en) * | 2015-04-03 | 2023-10-10 | 康耐视公司 | Homography correction system, method and computer readable storage medium |
WO2019107060A1 (en) * | 2017-11-30 | 2019-06-06 | 三菱電機株式会社 | Illumination control system and illumination control method |
JPWO2019107060A1 (en) * | 2017-11-30 | 2020-04-23 | 三菱電機株式会社 | Lighting control system and lighting control method |
JP2022519462A (en) * | 2019-01-18 | 2022-03-24 | ソニーグループ株式会社 | Point cloud coding using homography transformation |
JP7371691B2 (en) | 2019-01-18 | 2023-10-31 | ソニーグループ株式会社 | Point cloud encoding using homography transformation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4681856B2 (en) | Camera calibration method and camera calibration apparatus | |
CN107292927B (en) | Binocular vision-based symmetric motion platform pose measurement method | |
JP6058256B2 (en) | In-vehicle camera attitude detection apparatus and method | |
JP6377392B2 (en) | Image projection system and image projection method | |
EP0782100B1 (en) | Three-dimensional shape extraction apparatus and method | |
JP5108605B2 (en) | Driving support system and vehicle | |
US20130002861A1 (en) | Camera distance measurement device | |
EP3644281A1 (en) | Calibration device, calibration chart, chart pattern generation device, and calibration method | |
CN111127422A (en) | Image annotation method, device, system and host | |
JP2006252473A (en) | Obstacle detector, calibration device, calibration method and calibration program | |
US20140009583A1 (en) | Three-dimensional measurement apparatus and robot system | |
JPH0573680A (en) | Moving object recognizing device | |
Sagawa et al. | Calibration of lens distortion by structured-light scanning | |
JP2010086267A (en) | Image processing apparatus for vehicle | |
JP6956051B2 (en) | Image processing equipment, driving support system, image processing method and program | |
JP2008085710A (en) | Driving support system | |
JP2011155412A (en) | Projection system and distortion correction method in the same | |
JP2006146760A (en) | Image transformation method and image transformation system | |
JP2010217984A (en) | Image detector and image detection method | |
JP2006127083A (en) | Image processing method, and image processor | |
JP6202356B2 (en) | Image processing apparatus and method, and imaging apparatus | |
JP6099281B2 (en) | Book reading system and book reading method | |
JP2011130290A (en) | Method of correcting camera image, camera device, and coordinate transformation parameter determining device | |
Tamaki et al. | Unified approach to image distortion | |
Anwar | Calibrating projector flexibly for a real-time active 3D scanning system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110114 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110308 |