JP2006146760A - Image transformation method and image transformation system - Google Patents

Image transformation method and image transformation system Download PDF

Info

Publication number
JP2006146760A
JP2006146760A JP2004338558A JP2004338558A JP2006146760A JP 2006146760 A JP2006146760 A JP 2006146760A JP 2004338558 A JP2004338558 A JP 2004338558A JP 2004338558 A JP2004338558 A JP 2004338558A JP 2006146760 A JP2006146760 A JP 2006146760A
Authority
JP
Japan
Prior art keywords
camera
image
plane
dimensional space
homography
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004338558A
Other languages
Japanese (ja)
Inventor
Toshiaki Kakinami
俊明 柿並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2004338558A priority Critical patent/JP2006146760A/en
Publication of JP2006146760A publication Critical patent/JP2006146760A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image transformation method and system for transforming a camera image into a predetermined image very precisely corresponding to the three dimensional space within a camera view without requiring the internal and external parameters of a camera. <P>SOLUTION: The image transformation method and system calculates a homography between a first plane S1 and second plane S2 based on correspondence between four points commonly contained in the first plane S1 included in the three dimensional space within the view of the camera CM and the second plane S2 corresponding to an image inputted through the camera CM. The homography is used for transforming the camera image into a predetermined image corresponding to the three dimensional space within the camera view. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像変換方法及び画像変換装置に関し、特に、3次元空間を2次元画像に投影するカメラを介して入力したカメラ画像を他の画像に変換する画像変換方法及び画像変換装置に係る。   The present invention relates to an image conversion method and an image conversion apparatus, and more particularly to an image conversion method and an image conversion apparatus for converting a camera image input via a camera that projects a three-dimensional space onto a two-dimensional image into another image.

従来、3次元空間を2次元画像に投影するカメラを介して入力したカメラ画像を他の画像に変換する方法に関しては、種々の提案がされており、例えば、非特許文献1には、カメラの内部パラメータと外部パラメータのそれぞれを用いて、2次元画像面と3次元空間の間の変換関係を計算する方法が開示されている。同様に、非特許文献2にも、カメラの内部パラメータと外部パラメータのそれぞれの値を校正する方法が開示されている。また、特許文献1においては、車両周辺画像処理装置に関し、画像面と路面との投影関係が開示されている。     Conventionally, various proposals have been made regarding a method of converting a camera image input via a camera that projects a three-dimensional space onto a two-dimensional image into another image. A method for calculating a conversion relationship between a two-dimensional image plane and a three-dimensional space using each of an internal parameter and an external parameter is disclosed. Similarly, Non-Patent Document 2 discloses a method for calibrating the values of the internal parameters and external parameters of the camera. Patent Document 1 discloses a projection relationship between an image plane and a road surface with respect to a vehicle peripheral image processing apparatus.

尚、下記の非特許文献3乃至5には、本発明の基礎となる画像処理技術等の技術情報が開示されているが、これらについては、本発明の実施形態の説明の一環として後述する。   Non-Patent Documents 3 to 5 below disclose technical information such as image processing technology that is the basis of the present invention, which will be described later as part of the description of embodiments of the present invention.

特開2002−87160号公報JP 2002-87160 A Sundaram Ganapathy著「DECOMPOSITION OF TRANSFORMATION MATRICES FOR ROBOT VISION」、IEEE Conference Robotics、 1984年発行Sundaram Ganapathy "DECOMPOSITION OF TRANSFORMATION MATRICES FOR ROBOT VISION", IEEE Conference Robotics, 1984 Roger Y. Tsai著「An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision」、Proceedings of IEEE Conference on Computer Vision and Pattern Recognition、Miami Beach, FL, 1986年発行、364頁乃至374頁Roger Y. Tsai, “An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision”, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, 1986, 364-374 佐藤淳著「コンピュータビジョン」、コロナ社、2001年10月10日初版第3刷発行、11頁乃至41頁"Computer Vision" by Satoshi Sato, Corona, October 10, 2001, first edition, 3rd edition, pp. 11-41 Andrew Zisserman著「Geometric Framework for Vision I: Single View and Two-View Geometry」、[online]、1997年4月16日、[2004年9月3日検索]、Robotics Research Group. University of Oxford.、インターネット<URL:http://homepages.inf.ed.ac.uk/rbf/CVonline/LOCAL_COPIES/EPSRC_SSAZ/epsrc_ssaz.html>"Geometric Framework for Vision I: Single View and Two-View Geometry" by Andrew Zisserman, [online], April 16, 1997, [searched September 3, 2004], Robotics Research Group. University of Oxford., Internet <URL: http: //homepages.inf.ed.ac.uk/rbf/CVonline/LOCAL_COPIES/EPSRC_SSAZ/epsrc_ssaz.html> Richard Hartley及びAndrew Zisserman著「Multiple View Geometry in Computer Vision」、Cambridge University Press. 2000年8月発行、11頁乃至16頁"Multiple View Geometry in Computer Vision" by Richard Hartley and Andrew Zisserman, Cambridge University Press. August 2000, pp. 11-16

前掲の非特許文献1に記載の方法を用いるためには、カメラの全パラメータを決定する必要があり、例えば車両に搭載されたカメラを対象とする場合には、それぞれのパラメータの持つ公差のために、高精度な投影変換が困難である。また、非特許文献2においても、2次元画像面と3次元空間の間の変換関係を計算するために、カメラの内部パラメータと外部パラメータのそれぞれを用いることを前提としており、やはり、車両に搭載されたカメラを扱う場合には、それぞれのパラメータの持つ公差のために、高精度な投影変換が困難である。   In order to use the method described in the above-mentioned Non-Patent Document 1, it is necessary to determine all the parameters of the camera. For example, in the case of targeting a camera mounted on a vehicle, due to the tolerance of each parameter. In addition, high-accuracy projection conversion is difficult. In Non-Patent Document 2, it is assumed that each of the internal parameters and external parameters of the camera is used to calculate the conversion relationship between the two-dimensional image plane and the three-dimensional space. When a camera is used, high-accuracy projection conversion is difficult due to the tolerance of each parameter.

また、前掲の特許文献1においても、2次元画像面と3次元空間の間の変換関係を計算するために、カメラの内部パラメータと外部パラメータのそれぞれを用いることを前提としており、車両に搭載されたカメラを扱う場合、それぞれのパラメータの持つ公差のために、高精度な投影変換が困難である。この問題は画像面と3次元路面との間の座標変換関係において、カメラの内部パラメータと外部パラメータが何らかの校正方法により既知であるということを前提としていることに起因している。   Also, in the above-mentioned Patent Document 1, it is assumed that each of the internal parameters and external parameters of the camera is used to calculate the conversion relationship between the two-dimensional image plane and the three-dimensional space. When a camera is used, high-accuracy projection conversion is difficult because of the tolerance of each parameter. This problem is caused by assuming that the internal parameters and external parameters of the camera are already known by some calibration method in the coordinate conversion relationship between the image plane and the three-dimensional road surface.

そこで、本発明は、カメラの内部パラメータ及び外部パラメータを必要とすることなく、カメラ画像を、カメラの視界内の3次元空間に応じて所定の画像に高精度で変換し得る画像変換方法を提供することを課題とする。   Therefore, the present invention provides an image conversion method capable of converting a camera image into a predetermined image with high accuracy in accordance with a three-dimensional space in the camera field of view without requiring internal parameters and external parameters of the camera. The task is to do.

また、本発明は、カメラの内部パラメータ及び外部パラメータを必要とすることなく、カメラ画像を、上記所定の画像に高精度で変換し得る画像変換装置を提供し、更に、前記カメラを車両に搭載し、変換後の画像を容易に表示し得る画像変換装置を提供することを別の課題とする。   The present invention also provides an image conversion device capable of converting a camera image into the predetermined image with high accuracy without requiring an internal parameter and an external parameter of the camera, and further mounting the camera on a vehicle. Another object is to provide an image conversion apparatus that can easily display a converted image.

上記の課題を達成するため、本発明は、請求項1に記載のように、3次元空間を2次元画像に投影するカメラを介して入力したカメラ画像を他の画像に変換する画像変換方法において、前記カメラの視界内の3次元空間に包含される第1の平面と、前記カメラを介して入力した画像に対応する第2の平面に共通して包含される少なくとも4点の対応関係に基づき、前記第1の平面と前記第2の平面との間のホモグラフィを演算し、該ホモグラフィによって、前記カメラ画像を、前記カメラの視界内の3次元空間に応じて所定の画像に変換することとしたものである。   In order to achieve the above object, the present invention provides an image conversion method for converting a camera image input via a camera that projects a three-dimensional space onto a two-dimensional image into another image as described in claim 1. Based on the correspondence of at least four points that are commonly included in the first plane included in the three-dimensional space in the field of view of the camera and the second plane corresponding to the image input via the camera. , Calculating a homography between the first plane and the second plane, and converting the camera image into a predetermined image according to a three-dimensional space in the field of view of the camera by the homography That's what it meant.

また、本発明の画像変換装置は、請求項2に記載のように、3次元空間を2次元画像に投影するカメラを備え、該カメラを介して入力したカメラ画像を他の画像に変換する画像変換装置において、前記カメラの視界内の3次元空間に包含される第1の平面と、前記カメラを介して入力した画像に対応する第2の平面に共通して包含される少なくとも4点の対応関係に基づき、前記第1の平面と前記第2の平面との間のホモグラフィを演算するホモグラフィ演算手段と、該ホモグラフィ演算手段が演算したホモグラフィによって、前記カメラ画像を、前記カメラの視界内の3次元空間に応じて所定の画像に変換する変換手段を供えることとしたものである。   According to a second aspect of the present invention, an image conversion apparatus includes a camera that projects a three-dimensional space onto a two-dimensional image, and an image that converts a camera image input via the camera into another image. In the conversion device, correspondence between at least four points commonly included in the first plane included in the three-dimensional space in the field of view of the camera and the second plane corresponding to the image input via the camera. Based on the relationship, the camera image is obtained by the homography computing means for computing the homography between the first plane and the second plane, and the homography computed by the homography computing means. A conversion means for converting to a predetermined image according to the three-dimensional space in the field of view is provided.

更に、本発明の画像変換装置は、請求項3に記載のように、前記カメラ、前記ホモグラフィ演算手段及び前記変換手段を車両に搭載すると共に、前記所定の画像を表示する表示手段を備えたものとすることができる。この場合において、前記表示手段は、請求項4に記載のように、前記カメラ画像の幾何学的形状を変更して表示するように構成することができる。   Furthermore, as described in claim 3, the image conversion apparatus of the present invention includes the camera, the homography calculation unit, and the conversion unit mounted on a vehicle, and a display unit that displays the predetermined image. Can be. In this case, the display means can be configured to change and display the geometric shape of the camera image.

また、前記変換手段は、請求項5に記載のように、前記カメラ画像を、前記カメラの視界内の3次元空間に対し前記カメラの視点とは異なる視点から見た画像に変換し、該画像を前記表示手段が表示するように構成することができる。   In addition, as described in claim 5, the conversion unit converts the camera image into an image viewed from a viewpoint different from the viewpoint of the camera with respect to a three-dimensional space in the field of view of the camera. Can be configured to be displayed by the display means.

本発明は上述のように構成されているので以下の効果を奏する。即ち、請求項1に記載の画像変換方法においては、カメラの視界内の3次元空間に包含される第1の平面と、カメラを介して入力した画像に対応する第2の平面に共通して包含される少なくとも4点の対応関係に基づき、第1の平面と第2の平面との間のホモグラフィを演算し、このホモグラフィによって、カメラ画像を、カメラの視界内の3次元空間に応じて所定の画像に変換することとしているので、カメラの内部パラメータ及び外部パラメータが何れも未知であっても、カメラ画像中の4点を、元の3次元空間における平面上の4点として高精度で復元することができる。   Since this invention is comprised as mentioned above, there exist the following effects. That is, in the image conversion method according to claim 1, the first plane included in the three-dimensional space in the field of view of the camera and the second plane corresponding to the image input through the camera are common. A homography between the first plane and the second plane is calculated based on the correspondence relationship of at least four points included, and the camera image is obtained according to the three-dimensional space in the camera field of view by the homography. Therefore, even if both the internal and external parameters of the camera are unknown, the four points in the camera image can be converted to four points on the plane in the original three-dimensional space with high accuracy. Can be restored.

また、本発明の画像変換装置によれば、前記ホモグラフィ演算手段が演算したホモグラフィによって、カメラ画像を、カメラの視界内の3次元空間に応じて所定の画像に変換することとしているので、カメラの内部パラメータ及び外部パラメータが何れも未知であっても、カメラ画像中の4点を、元の3次元空間における平面上の4点として適切に復元することができる。この場合において、カメラの焦点距離や原点位置等のカメラの内部パラメータは未知でよく、しかも、3次元空間中のカメラの位置及び姿勢の情報であるカメラの外部パラメータも未知でよいので、カメラの設置及び装着条件が緩和される。   Further, according to the image conversion apparatus of the present invention, the camera image is converted into a predetermined image according to the three-dimensional space in the field of view of the camera by the homography calculated by the homography calculating means. Even if the internal parameters and external parameters of the camera are unknown, the four points in the camera image can be appropriately restored as the four points on the plane in the original three-dimensional space. In this case, the internal parameters of the camera such as the focal length and the origin position of the camera may be unknown, and the external parameters of the camera that are information on the position and orientation of the camera in the three-dimensional space may also be unknown. Installation and installation conditions are eased.

また、請求項3に記載のように構成し、車両に搭載したものとすることができ、この場合にも、カメラの内部パラメータ及び外部パラメータが何れも未知であっても、表示画像中の4点を、元の3次元空間における平面上の4点として適切に復元することができる。   Further, it can be configured as described in claim 3 and can be mounted on a vehicle. In this case, even if both the internal parameter and the external parameter of the camera are unknown, A point can be appropriately restored as four points on a plane in the original three-dimensional space.

更に、請求項4及び請求項5に記載のように構成すれば、例えば、車両周辺の状況を把握するための画像表示システム、走路を認識するシステム、障害物を検出するシステム等に有効に適用することができる。   Furthermore, if configured as described in claim 4 and claim 5, it is effectively applied to, for example, an image display system for grasping the situation around the vehicle, a system for recognizing a runway, a system for detecting an obstacle, etc. can do.

上記の構成になる本発明の画像変換方法の具体的一態様について、以下に図面を参照して説明する。最初に、本発明が前提とするカメラ技術について図8乃至11を参照して説明した後、図1及び図2を参照して本発明の実施形態を説明する。先ず、カメラ座標系を図8に示すように定義する。即ち、非特許文献3で説明されているように、カメラの光学中心Cを座標原点とし、3次元座標のX軸とY軸を、それぞれ画像面上のx軸およびy軸に平行にとり、Z軸を光軸l0に対し平行にとっている。光学中心Cから画像面πに垂直に引いた直線l0を「光軸」と言い、光軸と画像面との交点xCを「画像中心」と言う。 A specific aspect of the image conversion method of the present invention having the above configuration will be described below with reference to the drawings. First, camera technology on which the present invention is premised will be described with reference to FIGS. 8 to 11, and then embodiments of the present invention will be described with reference to FIGS. First, the camera coordinate system is defined as shown in FIG. That is, as described in Non-Patent Document 3, the optical center C of the camera is the coordinate origin, and the X-axis and Y-axis of the three-dimensional coordinate are taken in parallel with the x-axis and y-axis on the image plane, respectively. The axis is parallel to the optical axis l 0 . A straight line l 0 drawn perpendicularly to the image plane π from the optical center C is referred to as an “optical axis”, and an intersection x C between the optical axis and the image plane is referred to as an “image center”.

図8において、3次元空間中で(X,Y,Z)の座標を持つ点X=[X,Y,Z]Tが、2次元画像上で(x,y)の位置の点x=[x,y]Tに投影される。尚、大文字のX等は3次元を表し、小文字のx等は2次元を表す。また、「T」は転置行列を意味する。焦点距離をf=1とすれば、図8の2次元画像上の点を3次元空間中の点と考えると、その位置は(x,y,1)である。図8から明らかなように、このカメラによる投影では、2次元画像上の点のxとfの比が3次元空間中の点のXとZの比に等しく、またyとfの比がYとZの比に等しい。従って、3次元空間中の点とその投影像との間には、下記[数1]式の関係が成り立ち、このような投影を「透視投影」と言う。 In FIG. 8, a point X = [X, Y, Z] T having coordinates (X, Y, Z) in a three-dimensional space is a point x = [[x, y) on the two-dimensional image. x, y] T. In addition, capital X etc. represent three dimensions, and small letter x etc. represent two dimensions. “ T ” means a transposed matrix. If the focal length is f = 1, the position on the two-dimensional image in FIG. 8 is (x, y, 1) when considered as a point in the three-dimensional space. As is apparent from FIG. 8, in the projection by this camera, the ratio of x and f of the point on the two-dimensional image is equal to the ratio of X and Z of the point in the three-dimensional space, and the ratio of y and f is Y. Is equal to the ratio of Z. Therefore, the relationship of the following [Equation 1] is established between the point in the three-dimensional space and the projected image, and such a projection is called “perspective projection”.

Figure 2006146760
Figure 2006146760

上記[数1]式の透視投影は、斉次座標を用いて下記[数2]式のように、行列演算の形で表すことができる。   The perspective projection of the above [Equation 1] can be expressed in the form of a matrix operation as shown in the following [Equation 2] using homogeneous coordinates.

Figure 2006146760
Figure 2006146760

[数2]式においてλは任意の実数であり、[数2]式は[数1]式と同じ投影を表している。尚、[数2]式は下記[数3]式のように簡単化して表す。   In [Expression 2], [lambda] is an arbitrary real number, and [Expression 2] represents the same projection as [Expression 1]. [Expression 2] is simplified and expressed as the following [Expression 3].

Figure 2006146760
Figure 2006146760

上記[数3]式において、Pfは下記[数4]のとおりである。   In the above [Equation 3], Pf is as shown in [Equation 4] below.

Figure 2006146760
Figure 2006146760

ところで、コンピュータ上で扱う画像データは、その原点をどこにとるか、画素座標値としての細分方法や縦横比は、設計により変わるものである。即ち、コンピュータ上で扱う画像データは物理的な大きさや位置とは無関係な画素単位の画像座標に基づいている。従って、実際のカメラをモデル化する場合には、物理的座標xから画像座標mに変換する必要がある。この変換は原点位置合わせのための平行移動、縦横のスケール変換及び焦点距離に応じたスケール変換を組み合わせたものであり、次のように表される。   By the way, the image data handled on the computer is where the origin is taken, and the subdivision method and aspect ratio as pixel coordinate values vary depending on the design. That is, the image data handled on the computer is based on image coordinates in pixel units that are unrelated to the physical size and position. Therefore, when modeling an actual camera, it is necessary to convert from physical coordinates x to image coordinates m. This conversion is a combination of parallel movement for origin position alignment, vertical and horizontal scale conversion, and scale conversion according to the focal length, and is expressed as follows.

Figure 2006146760
Figure 2006146760

ここで、上記[数5]式の前段は[m1,m2,m3Tで表され、画像座標m=[u,v]Tの斉次座標であって、下記[数6]式の同値関係が成り立つように設定する。即ち、u=m1/m3,v=m2/m3である。 Here, the preceding stage of the above [Equation 5] is represented by [m 1 , m 2 , m 3 ] T and is a homogeneous coordinate of the image coordinates m = [u, v] T , and the following [Equation 6] Set so that the equivalence relation of the expression holds. That is, u = m 1 / m 3 and v = m 2 / m 3 .

Figure 2006146760
Figure 2006146760

また、Aは物理的座標xを画像座標mに変換する行列であり、焦点距離f、画像中心の座標(u0,v0)、u及びv方向のスケール・ファクターku,kv、及び、せん断係数ksによって下記[数7]のように表される。尚、この「せん断係数」は、平行性は保つが直角性は保たないような変形(せん断変形) を発生させる係数である。 A is a matrix for converting physical coordinates x into image coordinates m, and includes focal length f, image center coordinates (u 0 , v 0 ), u and v direction scale factors k u , k v , and The following [Equation 7] is expressed by the shear coefficient k s . This “shear coefficient” is a coefficient that causes deformation (shear deformation) that maintains parallelism but does not maintain perpendicularity.

Figure 2006146760
Figure 2006146760

上記[数3]及び[数5]により、3次元空間中の点Xは、2次元画像上の画素mに対し下記[数8]のように投影される。ここで、Aは「カメラ校正行列」と言い、更に詳細には、上記[数7]から明らかなように、カメラの内部パラメータによって構成される行列であるので、「カメラの内部パラメータ行列」と呼ぶ。   By the above [Equation 3] and [Equation 5], the point X in the three-dimensional space is projected to the pixel m on the two-dimensional image as shown in the following [Equation 8]. Here, A is referred to as a “camera calibration matrix”, and more specifically, as is apparent from the above [Equation 7], it is a matrix constituted by camera internal parameters. Call.

Figure 2006146760
Figure 2006146760

次に、複数のカメラ間の関係や、同一のカメラであっても複数の位置に移動することを考慮し、あるいは、そのカメラと対象物との関係を考慮する際には、基準となる座標系を設定するとよい。この場合に、図9に示すように、考慮されるカメラの数や位置、対象物に対して共通に決められた座標が、「ワールド座標」と定義される。このワールド座標(Xwとする)からカメラ座標Xへは、3次元の回転R及び並進Tによって下記[数9]式のように変換される。 Next, when considering the relationship between multiple cameras, moving to multiple positions even for the same camera, or when considering the relationship between the camera and the object, reference coordinates Set the system. In this case, as shown in FIG. 9, the coordinates determined in common for the number and positions of the cameras to be considered and the object are defined as “world coordinates”. From the world coordinates ( Xw ) to the camera coordinates X is converted by the three-dimensional rotation R and translation T as shown in the following [Equation 9].

Figure 2006146760
Figure 2006146760

3次元の回転R及び並進Tは、夫々、X軸回り、Y軸回り、Z軸回りの回転θx,θy,θz及びX軸方向、Y軸方向、Z軸方向の並進TX,TY,TZより成り、夫々、下記[数10]及び[数11]のように表される。 The three-dimensional rotation R and translation T are respectively the rotations θ x , θ y , θ z around the X axis, the Y axis, and the Z axis, and the translations T X , X axis, Y axis, and Z axis. It consists of T Y and T Z and is expressed as the following [Equation 10] and [Equation 11], respectively.

Figure 2006146760
Figure 2006146760
Figure 2006146760
Figure 2006146760

前掲の[数9]式は、斉次座標を用いれば下記[数12]式のように表すことができる。   [Equation 9] can be expressed as the following [Equation 12] using homogeneous coordinates.

Figure 2006146760
Figure 2006146760

ここで、Mは回転Rと並進Tを組み合わせた4×4行列であり、下記[数13]のとおりである。つまり、Mはワールド座標に対する姿勢(回転)及び位置(並進)によって決まる行列である。そして、これらの回転及び並進は「カメラの外部パラメータ」と言い、前述のAを「カメラの内部パラメータ行列」と呼ぶのに対し、Mを「カメラの外部パラメータ行列」と呼ぶ。   Here, M is a 4 × 4 matrix in which the rotation R and the translation T are combined, as shown in [Equation 13] below. That is, M is a matrix determined by the attitude (rotation) and position (translation) with respect to the world coordinates. These rotations and translations are referred to as “camera external parameters”, and A is referred to as “camera internal parameter matrix”, whereas M is referred to as “camera external parameter matrix”.

Figure 2006146760
Figure 2006146760

上記[数8]及び[数12]により、ワールド座標系における3次元空間の点Xは2次元画像上の点mに次のように投影される。   From the above [Equation 8] and [Equation 12], the point X in the three-dimensional space in the world coordinate system is projected to the point m on the two-dimensional image as follows.

Figure 2006146760
Figure 2006146760

上記[数14]式において、Pは下記[数15]で表される3×4行列である。尚、[数14]式においては、ワールド座標XwがXで置き直されているが、以後、ワールド座標とカメラ座標に対して記号を区別することなく、ともにXで表すこととする。 In the above [Expression 14], P is a 3 × 4 matrix expressed by the following [Expression 15]. In the [Equation 14] where it world coordinates X w is repositioned in X, hereinafter without distinguishing symbol relative to the world coordinate and the camera coordinate, and that both represented by X.

Figure 2006146760
Figure 2006146760

而して、上記[数14]式で表されるカメラモデルを「透視カメラモデル」と言う。また、Pは「透視カメラ行列」と呼び、カメラの内部パラメータ及び外部パラメータによって構成される。従って、Pが求まれば、これをA、R、Tに分解することができる。そして、A、R、Tが共に既知、即ちPが既知である場合には、そのカメラは「校正済みである」といい、これらが未知の場合には「カメラが未校正である」という。従って、A、R、Tを求めることを「カメラの校正」と呼ぶ。   Thus, the camera model represented by the above [Expression 14] is referred to as a “perspective camera model”. P is referred to as a “perspective camera matrix” and is composed of camera internal parameters and external parameters. Therefore, if P is obtained, it can be decomposed into A, R, and T. When all of A, R, and T are known, that is, when P is known, the camera is said to be “calibrated”, and when these are unknown, the camera is said to be “uncalibrated”. Therefore, obtaining A, R, and T is called “camera calibration”.

上記の「透視カメラモデル」では、カメラ行列PがA、R、Tで構成されているが、カメラ行列Pを3×4行列で一般化して表すと、下記[数16]のようになる。   In the above-mentioned “perspective camera model”, the camera matrix P is composed of A, R, and T. When the camera matrix P is generalized by a 3 × 4 matrix, the following [Equation 16] is obtained.

Figure 2006146760
Figure 2006146760

上記のPpは下記[数17]のような3×4行列である。このように一般化された3×4行列で表されたカメラモデルを「射影カメラモデル」と言い、Ppを「射影カメラ行列」と呼ぶ。 The above P p is a 3 × 4 matrix as shown in [Equation 17] below. The camera model represented by the generalized 3 × 4 matrix is called “projection camera model”, and P p is called “projection camera matrix”.

Figure 2006146760
Figure 2006146760

上記[数17]に示すように、Ppは3×4行列でその要素の数は12個である。しかし、上記[数16]式は斉次座標で表されており、Ppを定数倍しても全く同じカメラモデルを表すことになるため、その自由度は12ではなく11である。而して、「透視カメラ」は、このような「射影カメラ」によって一般化することができる。 As shown in [Equation 17] above, P p is a 3 × 4 matrix and the number of elements is twelve. However, the above [Expression 16] is expressed by homogeneous coordinates, and even if P p is multiplied by a constant, the same camera model is represented, so the degree of freedom is 11 instead of 12. Thus, the “perspective camera” can be generalized by such a “projection camera”.

次に、図10に示すように、ワールド座標をZ=0の平面に限定すると、上記の3×4行列を、下記[数18]式のように3×3行列に簡単化することができるが、この3×3行列は一般的な「平面射影変換」(ホモグラフィ)を表す。   Next, as shown in FIG. 10, when the world coordinates are limited to the plane of Z = 0, the above 3 × 4 matrix can be simplified to a 3 × 3 matrix as shown in the following [Equation 18]. However, this 3 × 3 matrix represents a general “plane projection transformation” (homography).

Figure 2006146760
Figure 2006146760

ここで、図11に示すような2つの平面πと平面Πを考えたときに、夫々の平面上の点xとx'との関係は、下記[数19]式のように表すことができる。   Here, when two planes π and plane Π as shown in FIG. 11 are considered, the relationship between the points x and x ′ on the respective planes can be expressed as the following [Equation 19]. .

Figure 2006146760
Figure 2006146760

あるいは、3×3の正則行列(但し、行列式は0ではない)を用いて、下記[数20]のように表すこともでき、このHをホモグラフィと言う。   Alternatively, a 3 × 3 regular matrix (however, the determinant is not 0) can also be expressed as [Equation 20] below, and this H is called homography.

Figure 2006146760
Figure 2006146760

そして、上記の[数20]は下記[数21]式のように表すこともできる。   The above [Equation 20] can also be expressed as the following [Equation 21].

Figure 2006146760
Figure 2006146760

更に、ホモグラフィHの要素において、各平面で対応する点に対し下記の[数22]及び[数23]の2つの線形方程式が得られる。これは、平面上の任意の4点は他の平面上の4点に射影的に変換可能であることを表している。   Further, in the element of the homography H, the following two linear equations [Equation 22] and [Equation 23] are obtained for the corresponding points in each plane. This indicates that any four points on a plane can be projectively converted to four points on another plane.

Figure 2006146760
Figure 2006146760
Figure 2006146760
Figure 2006146760

上記の関係を整理すると、透視カメラモデルでは図12のように複数の変換を重ねることになるが、射影カメラモデルでは図13のように簡単な計算で変換される。尚、図12及び図13における「D」は、画像の歪に対して補正処理を行うための歪曲補正係数である。   When the above relationship is arranged, in the perspective camera model, a plurality of conversions are repeated as shown in FIG. 12, but in the projection camera model, the conversion is performed by a simple calculation as shown in FIG. Note that “D” in FIGS. 12 and 13 is a distortion correction coefficient for performing correction processing on image distortion.

本発明は、上記のようにホモグラフィを用いて画像変換を行うもので、その一実施形態を図1に示す。図1におけるカメラCMとしては、3次元空間を2次元画像に投影するカメラであれば、どのような態様であってもよい。この実施形態においては、カメラCMの視界内の3次元空間に包含される第1の平面S1と、カメラCMを介して入力した画像に対応する第2の平面S2に共通して包含される少なくとも4点の対応関係に基づき、第1の平面S1と第2の平面S2との間のホモグラフィを演算するホモグラフィ演算手段HMと、このホモグラフィ演算手段HMが演算したホモグラフィによって、カメラ画像を、カメラの視界内の3次元空間に応じて所定の画像に変換する変換手段CVを具備している。   The present invention performs image conversion using homography as described above, and an embodiment thereof is shown in FIG. The camera CM in FIG. 1 may take any form as long as it is a camera that projects a three-dimensional space onto a two-dimensional image. In this embodiment, at least the first plane S1 included in the three-dimensional space in the field of view of the camera CM and at least the second plane S2 corresponding to the image input via the camera CM are included. Based on the correspondence of the four points, the camera image is obtained by the homography computing means HM for computing the homography between the first plane S1 and the second plane S2, and the homography computed by the homography computing means HM. Is converted to a predetermined image according to a three-dimensional space in the field of view of the camera.

本発明のカメラ等は移動体に搭載してもよく、図2に示すように、図1の装置を車両VHに搭載すると共に、上記所定の画像を表示する表示手段DSを備えたものとすることができる。この表示手段DSは、カメラ画像の幾何学的形状を変更して表示するように構成することができる。また、変換手段CVにおいては、カメラ画像を、カメラの視界内の3次元空間に対しカメラの視点とは異なる視点から見た画像に変換し、この画像を表示手段DSが表示するように構成することもできる。   The camera or the like of the present invention may be mounted on a moving body, and as shown in FIG. 2, the apparatus of FIG. 1 is mounted on a vehicle VH and includes display means DS for displaying the predetermined image. be able to. This display means DS can be configured to change and display the geometric shape of the camera image. The conversion means CV converts the camera image into an image viewed from a viewpoint different from the viewpoint of the camera with respect to the three-dimensional space in the camera field of view, and the display means DS displays the image. You can also.

而して、上記の画像変換装置を、例えば、車両周辺の状況を把握するための画像表示システム、走路を認識するシステム、障害物を検出するシステム等に適用することができ、その一例として駐車支援装置に適用した具体的構成例を図3に示す。本実施形態においては、図示しない車両の後方に、カメラCM(例えばCCDカメラ)が装着されており、路面を含む車両後方の視界が連続して撮像される。カメラCMの映像信号は、ビデオ入力バッファ回路VB、同期分離回路SYを経てA/D変換されフレームメモリFMに格納される。このフレームメモリFMに格納された画像データは、画像処理部VCで処理される。画像処理部VCは、画像データ制御部VP、歪曲補正部CP、特徴点検出部SP、座標変換部KP、及び認識処理部LPで構成されている。   Thus, the above image conversion device can be applied to, for example, an image display system for grasping the situation around the vehicle, a system for recognizing a runway, a system for detecting an obstacle, etc. A specific configuration example applied to the support device is shown in FIG. In the present embodiment, a camera CM (for example, a CCD camera) is mounted behind a vehicle (not shown), and the field of view behind the vehicle including the road surface is continuously imaged. The video signal of the camera CM is A / D converted through the video input buffer circuit VB and the sync separation circuit SY and stored in the frame memory FM. The image data stored in the frame memory FM is processed by the image processing unit VC. The image processing unit VC includes an image data control unit VP, a distortion correction unit CP, a feature point detection unit SP, a coordinate conversion unit KP, and a recognition processing unit LP.

画像処理部VCにおいては、フレームメモリFM内の画像データから、画像データ制御部VPでアドレス指定されたデータが呼び出されて歪曲補正部CPに送られ、ここで歪曲補正処理が行われる。例えば、図4に示すように、カメラCMによる画像が歪曲した画像となっている場合には、歪曲補正部CPにて補正処理が行われ、図5の上側に示す画像とされる(従って、図5の上下の点描部分はカメラ画像ではない)。このように歪曲補正された画像上において、特徴点検出部CPにて駐車区画の四隅の4点が検出される。   In the image processing unit VC, data addressed by the image data control unit VP is called from the image data in the frame memory FM and sent to the distortion correction unit CP, where distortion correction processing is performed. For example, as shown in FIG. 4, when the image from the camera CM is a distorted image, the distortion correction unit CP performs a correction process to obtain the image shown in the upper side of FIG. The upper and lower stipple parts in FIG. 5 are not camera images). On the distortion corrected image, the feature point detector CP detects four points at the four corners of the parking section.

そして、図3の座標変換部KPにおいては、予め校正されたホモグラフィのパラメータによって、カメラ画像が、上空から見た画像に変換される。即ち、図5の上側に示すように図4の画像が歪曲補正された画像から、駐車区画の四隅の4点が検出され、それらの4点が元の駐車区画の形状に一致するように、前述のホモグラフィHによる変換が行われると、図5の下側に示すように、上空から見た画像に変換され、元の長方形の駐車区画として復元される。而して、図5に示す態様は、カメラCMの視界内の3次元空間に対しカメラCMの視点とは異なる視点から見た画像に変換して表示するように構成されたものである。尚、認識処理部LPにて駐車区画が認識され、描画部DP及び表示コントローラDCを介して画像信号が出力されるが、これらの処理は本発明に直接関係するものではないので、詳細な説明は省略する。   In the coordinate conversion unit KP in FIG. 3, the camera image is converted into an image viewed from the sky by the homography parameters calibrated in advance. That is, as shown in the upper side of FIG. 5, four points at the four corners of the parking area are detected from the image obtained by correcting the distortion of the image of FIG. 4, and these four points match the shape of the original parking area. When the above-described conversion by the homography H is performed, as shown in the lower side of FIG. 5, the image is converted into an image viewed from above and restored as an original rectangular parking section. Thus, the mode shown in FIG. 5 is configured to convert and display an image viewed from a viewpoint different from the viewpoint of the camera CM with respect to the three-dimensional space in the field of view of the camera CM. Note that the parking section is recognized by the recognition processing unit LP and an image signal is output via the drawing unit DP and the display controller DC, but these processes are not directly related to the present invention. Is omitted.

一方、上記の画像変換装置を走路認識システムに適用し、走路の白線認識に用いる場合には、カメラ画像からエッジ点を検出し、それを路面座標に当てはめて走路の境界線として検出することができる。この場合には、路面座標に投影するときに、前述のホモグラフィHによる画像変換を適用することができる。   On the other hand, when the above image conversion apparatus is applied to a road recognition system and used for white line recognition of a road, an edge point is detected from a camera image and applied to road surface coordinates to detect it as a road boundary line. it can. In this case, when projecting onto the road surface coordinates, the above-described image conversion by the homography H can be applied.

次に、前述のホモグラフィHにより画像変換を行った別の実験例を説明する。図6及び図7は他の実験例を図示したもので、既知のサイズの正方形の集合で作られた市松模様のパターンを撮影し、図6のカメラ画像に対して歪曲補正を行った後に、射影変換を行ったものである。図7においても、元は長方形であった4点が、図7の下側に示すように、長方形として復元されている。   Next, another experimental example in which image conversion is performed by the above-described homography H will be described. FIG. 6 and FIG. 7 illustrate another experimental example. After shooting a checkered pattern made of a set of squares of a known size and performing distortion correction on the camera image of FIG. Projective transformation is performed. Also in FIG. 7, the four points that were originally rectangular are restored as rectangles as shown in the lower side of FIG.

以上のように、内部パラメータは未知であり(画像の歪曲は補正されているとし)、3次元空間における平面上の配置が既知である任意の4点と、夫々に対応する画像中の4点の対応づけを、前述のホモグラフィHによって行うことにより、カメラの外部パラメータが未知であっても、画像中の4点を、元の3次元空間における平面上の4点として復元することができる。この場合において、カメラの設置及び装着状態、例えば、カメラの高さやチルト角等の3次元空間中のカメラの位置及び姿勢の情報であるカメラの外部パラメータRとTは必要とせず、これらは未知でよいので、カメラの設置及び装着条件が緩和されると共に、2次元画像と3次元空間内の平面との間の変換精度が向上する。   As described above, the internal parameters are unknown (assuming that the distortion of the image is corrected), and any four points whose arrangement on the plane in the three-dimensional space is known, and four points in the corresponding image, respectively. Is performed by the above-described homography H, so that the four points in the image can be restored as the four points on the plane in the original three-dimensional space even if the external parameters of the camera are unknown. . In this case, camera external parameters R and T, which are information about the position and orientation of the camera in the three-dimensional space, such as the camera height and tilt angle, are not required, and these are unknown. Therefore, the installation and mounting conditions of the camera are eased, and the conversion accuracy between the two-dimensional image and the plane in the three-dimensional space is improved.

特に、2画像間の4点の変換関係をホモグラフィHによって求めることとしているので、カメラの焦点距離や原点位置等のカメラの内部パラメータは未知でよく、しかも、カメラが搭載されている高さや角度等のカメラの外部パラメータも未知でよいので、高精度な変換を簡単な方法で実現することができ、射影カメラモデルを用いることによって演算を簡略化することができる。尚、本発明は、上記のような車両等の移動体に搭載される装置に限定されるものではなく、カメラ画像を用いる種々の装置に適用することができる。   In particular, since the four-point conversion relationship between two images is determined by homography H, the internal parameters of the camera such as the focal length and origin position of the camera may be unknown, and the height at which the camera is mounted Since external parameters of the camera such as the angle may be unknown, high-accuracy conversion can be realized by a simple method, and the calculation can be simplified by using the projection camera model. In addition, this invention is not limited to the apparatus mounted in moving bodies, such as the above vehicles, It can apply to the various apparatuses which use a camera image.

本発明の一実施形態に係る画像変換装置の主要構成を示すブロック図である。1 is a block diagram illustrating a main configuration of an image conversion apparatus according to an embodiment of the present invention. 本発明の他の実施形態に係る画像変換装置の主要構成を示すブロック図である。It is a block diagram which shows the main structures of the image converter which concerns on other embodiment of this invention. 本発明の画像変換装置を車両の駐車支援装置に適用した一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment which applied the image conversion apparatus of this invention to the parking assistance apparatus of the vehicle. 本発明の画像変換装置を車両の駐車支援装置に適用した一実施形態において、カメラ画像が歪曲している状況を示す画像の正面図である。In one Embodiment which applied the image conversion apparatus of this invention to the parking assistance apparatus of the vehicle, it is a front view of the image which shows the condition where the camera image is distorted. 本発明の画像変換装置を車両の駐車支援装置に適用した一実施形態において、カメラ画像が上空から見た画像に変換され、駐車区画が検出される状況を示す画像の正面図である。In one Embodiment which applied the image conversion device of the present invention to a parking assistance device of vehicles, it is a front view of an image showing a situation where a camera image is converted into an image seen from the sky and a parking section is detected. 本発明の画像変換装置を一般的なカメラ画像に適用した一実施形態として、市松模様のパターンを撮影した画像が歪曲している状況を示す画像の正面図である。It is a front view of an image which shows the situation where the picture which checked the checkered pattern as one embodiment which applied the image conversion device of the present invention to a general camera picture is distorted. 本発明の画像変換装置を一般的なカメラ画像に適用した一実施形態として、図6の画像に対して歪曲補正を行った後に、射影変換を行った状況を示す画像の正面図である。FIG. 7 is a front view of an image showing a situation in which projective transformation is performed after distortion correction is performed on the image of FIG. 6 as an embodiment in which the image conversion apparatus of the present invention is applied to a general camera image. 一般的なカメラ技術における透視投影を示す説明図である。It is explanatory drawing which shows the perspective projection in a general camera technique. 一般的なカメラ技術におけるカメラ座標とワールド座標の関係を示す説明図である。It is explanatory drawing which shows the relationship between the camera coordinate and world coordinate in general camera technology. 一般的なカメラ技術における平面射影変換を示す説明図である。It is explanatory drawing which shows planar projection conversion in a general camera technique. 一般的なカメラ技術における2つの平面π及び平面Πの平面上の点の関係を示す説明図である。It is explanatory drawing which shows the relationship of the point on the plane of two plane (pi) and plane Π in a general camera technique. 透視カメラモデルと、それによる変換の関係を示す説明図である。It is explanatory drawing which shows the perspective camera model and the relationship of the conversion by it. 射影カメラモデルと、それによる変換の関係を示す説明図である。It is explanatory drawing which shows the relationship between a projection camera model and the conversion by it.

符号の説明Explanation of symbols

CM カメラ
HM ホモグラフィ演算手段
CV 変換手段
DS 表示手段
VB ビデオ入力バッファ回路
SY 同期分離回路
FM フレームメモリ
VC 画像処理部
CM camera HM homography calculation means CV conversion means DS display means VB video input buffer circuit SY sync separation circuit FM frame memory VC image processing section

Claims (5)

3次元空間を2次元画像に投影するカメラを介して入力したカメラ画像を他の画像に変換する画像変換方法において、前記カメラの視界内の3次元空間に包含される第1の平面と、前記カメラを介して入力した画像に対応する第2の平面に共通して包含される少なくとも4点の対応関係に基づき、前記第1の平面と前記第2の平面との間のホモグラフィを演算し、該ホモグラフィによって、前記カメラ画像を、前記カメラの視界内の3次元空間に応じて所定の画像に変換することを特徴とする画像変換方法。   In an image conversion method for converting a camera image input via a camera that projects a three-dimensional space into a two-dimensional image into another image, a first plane included in the three-dimensional space in the field of view of the camera, Calculating a homography between the first plane and the second plane based on a correspondence relationship of at least four points commonly included in the second plane corresponding to the image input via the camera; The image conversion method characterized by converting the camera image into a predetermined image according to a three-dimensional space in the field of view of the camera by the homography. 3次元空間を2次元画像に投影するカメラを備え、該カメラを介して入力したカメラ画像を他の画像に変換する画像変換装置において、前記カメラの視界内の3次元空間に包含される第1の平面と、前記カメラを介して入力した画像に対応する第2の平面に共通して包含される少なくとも4点の対応関係に基づき、前記第1の平面と前記第2の平面との間のホモグラフィを演算するホモグラフィ演算手段と、該ホモグラフィ演算手段が演算したホモグラフィによって、前記カメラ画像を、前記カメラの視界内の3次元空間に応じて所定の画像に変換する変換手段を供えたことを特徴とする画像変換装置。   An image conversion apparatus that includes a camera that projects a three-dimensional space onto a two-dimensional image and converts a camera image input via the camera into another image. Between the first plane and the second plane based on a correspondence relationship of at least four points that are commonly included in the second plane corresponding to the image input via the camera and the second plane corresponding to the image input via the camera. Homography calculation means for calculating homography, and conversion means for converting the camera image into a predetermined image according to a three-dimensional space in the field of view of the camera by the homography calculated by the homography calculation means. An image conversion apparatus characterized by that. 前記カメラ、前記ホモグラフィ演算手段及び前記変換手段を車両に搭載すると共に、前記所定の画像を表示する表示手段を備えたことを特徴とする請求項2記載の画像変換装置。   3. The image conversion apparatus according to claim 2, wherein the camera, the homography calculation means, and the conversion means are mounted on a vehicle and further include display means for displaying the predetermined image. 前記表示手段は、前記カメラ画像の幾何学的形状を変更して表示するように構成したことを特徴とする請求項3記載の画像変換装置。   The image conversion apparatus according to claim 3, wherein the display unit is configured to display the camera image by changing a geometric shape thereof. 前記変換手段は、前記カメラ画像を、前記カメラの視界内の3次元空間に対し前記カメラの視点とは異なる視点から見た画像に変換し、該画像を前記表示手段が表示するように構成したことを特徴とする請求項3記載の画像変換装置。
The converting means converts the camera image into an image viewed from a viewpoint different from the viewpoint of the camera with respect to a three-dimensional space in the field of view of the camera, and the display means displays the image. The image conversion apparatus according to claim 3.
JP2004338558A 2004-11-24 2004-11-24 Image transformation method and image transformation system Pending JP2006146760A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004338558A JP2006146760A (en) 2004-11-24 2004-11-24 Image transformation method and image transformation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004338558A JP2006146760A (en) 2004-11-24 2004-11-24 Image transformation method and image transformation system

Publications (1)

Publication Number Publication Date
JP2006146760A true JP2006146760A (en) 2006-06-08

Family

ID=36626342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004338558A Pending JP2006146760A (en) 2004-11-24 2004-11-24 Image transformation method and image transformation system

Country Status (1)

Country Link
JP (1) JP2006146760A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021161A (en) * 2006-07-13 2008-01-31 Mitsubishi Fuso Truck & Bus Corp Driving state determining device
KR100844129B1 (en) 2006-09-13 2008-07-04 한국전자통신연구원 A paratus for interfacing a mouse using a camera image, system and method using the paratus, computer readable record medium on which a program therefore is recorded
JP2012086285A (en) * 2010-10-15 2012-05-10 Seiko Epson Corp Tracking robot device, tracking robot control method, tracking robot control program, homography matrix acquisition device, homography matrix acquisition method, and homography matrix acquisition program
WO2019107060A1 (en) * 2017-11-30 2019-06-06 三菱電機株式会社 Illumination control system and illumination control method
CN110458788A (en) * 2015-04-03 2019-11-15 康耐视公司 Homography correction
JP2022519462A (en) * 2019-01-18 2022-03-24 ソニーグループ株式会社 Point cloud coding using homography transformation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232466A (en) * 1998-02-10 1999-08-27 Honda Motor Co Ltd Road shape reognition device
JP2001319218A (en) * 2000-02-29 2001-11-16 Hitachi Ltd Image monitoring device
JP2002087160A (en) * 2000-09-18 2002-03-26 Denso Corp Vehicular surrounding image processing device and recording medium
JP2003030626A (en) * 2001-07-18 2003-01-31 Toshiba Corp Image processor and method therefor
JP2004078285A (en) * 2002-08-09 2004-03-11 Toyota Motor Corp Image processor and image processing method
JP2005286685A (en) * 2004-03-30 2005-10-13 Hitachi Ltd Image generating apparatus, system or image composite method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232466A (en) * 1998-02-10 1999-08-27 Honda Motor Co Ltd Road shape reognition device
JP2001319218A (en) * 2000-02-29 2001-11-16 Hitachi Ltd Image monitoring device
JP2002087160A (en) * 2000-09-18 2002-03-26 Denso Corp Vehicular surrounding image processing device and recording medium
JP2003030626A (en) * 2001-07-18 2003-01-31 Toshiba Corp Image processor and method therefor
JP2004078285A (en) * 2002-08-09 2004-03-11 Toyota Motor Corp Image processor and image processing method
JP2005286685A (en) * 2004-03-30 2005-10-13 Hitachi Ltd Image generating apparatus, system or image composite method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021161A (en) * 2006-07-13 2008-01-31 Mitsubishi Fuso Truck & Bus Corp Driving state determining device
KR100844129B1 (en) 2006-09-13 2008-07-04 한국전자통신연구원 A paratus for interfacing a mouse using a camera image, system and method using the paratus, computer readable record medium on which a program therefore is recorded
JP2012086285A (en) * 2010-10-15 2012-05-10 Seiko Epson Corp Tracking robot device, tracking robot control method, tracking robot control program, homography matrix acquisition device, homography matrix acquisition method, and homography matrix acquisition program
CN110458788A (en) * 2015-04-03 2019-11-15 康耐视公司 Homography correction
CN110458788B (en) * 2015-04-03 2023-10-10 康耐视公司 Homography correction system, method and computer readable storage medium
WO2019107060A1 (en) * 2017-11-30 2019-06-06 三菱電機株式会社 Illumination control system and illumination control method
JPWO2019107060A1 (en) * 2017-11-30 2020-04-23 三菱電機株式会社 Lighting control system and lighting control method
JP2022519462A (en) * 2019-01-18 2022-03-24 ソニーグループ株式会社 Point cloud coding using homography transformation
JP7371691B2 (en) 2019-01-18 2023-10-31 ソニーグループ株式会社 Point cloud encoding using homography transformation

Similar Documents

Publication Publication Date Title
JP4681856B2 (en) Camera calibration method and camera calibration apparatus
CN107292927B (en) Binocular vision-based symmetric motion platform pose measurement method
JP6058256B2 (en) In-vehicle camera attitude detection apparatus and method
JP6377392B2 (en) Image projection system and image projection method
EP0782100B1 (en) Three-dimensional shape extraction apparatus and method
JP5108605B2 (en) Driving support system and vehicle
US20130002861A1 (en) Camera distance measurement device
EP3644281A1 (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
CN111127422A (en) Image annotation method, device, system and host
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
US20140009583A1 (en) Three-dimensional measurement apparatus and robot system
JPH0573680A (en) Moving object recognizing device
Sagawa et al. Calibration of lens distortion by structured-light scanning
JP2010086267A (en) Image processing apparatus for vehicle
JP6956051B2 (en) Image processing equipment, driving support system, image processing method and program
JP2008085710A (en) Driving support system
JP2011155412A (en) Projection system and distortion correction method in the same
JP2006146760A (en) Image transformation method and image transformation system
JP2010217984A (en) Image detector and image detection method
JP2006127083A (en) Image processing method, and image processor
JP6202356B2 (en) Image processing apparatus and method, and imaging apparatus
JP6099281B2 (en) Book reading system and book reading method
JP2011130290A (en) Method of correcting camera image, camera device, and coordinate transformation parameter determining device
Tamaki et al. Unified approach to image distortion
Anwar Calibrating projector flexibly for a real-time active 3D scanning system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308