JP2011047725A - Method for estimating fixation position of imaging device and calibration system - Google Patents

Method for estimating fixation position of imaging device and calibration system Download PDF

Info

Publication number
JP2011047725A
JP2011047725A JP2009194974A JP2009194974A JP2011047725A JP 2011047725 A JP2011047725 A JP 2011047725A JP 2009194974 A JP2009194974 A JP 2009194974A JP 2009194974 A JP2009194974 A JP 2009194974A JP 2011047725 A JP2011047725 A JP 2011047725A
Authority
JP
Japan
Prior art keywords
pattern
imaging
image data
target
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009194974A
Other languages
Japanese (ja)
Inventor
Shinya Hashimoto
真也 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2009194974A priority Critical patent/JP2011047725A/en
Publication of JP2011047725A publication Critical patent/JP2011047725A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an estimation method, along with a calibration system, capable of estimating the fixation position of an imaging device, which is more accurate than the conventional method thereof. <P>SOLUTION: The method of estimating the fixation position of an imaging camera includes: the first step of providing a target board TG with a circle pattern C at the predetermined position in a vehicle; the second step of imaging the target board TG by the imaging camera; the third step of converting the image data picked up in the second step into bird's-eye view data; the fourth step of calculating the coordinate position of a pattern on the target board on the basis of the bird's-eye view data; the fifth step of converting the coordinate position calculated in the fourth step into a coordinate position on the image data; and the sixth step of estimating the fixation position of the imaging camera on the basis of the coordinate position converted in the fifth step. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車両に取り付けられた撮像装置(撮像カメラ)の取り付け位置の推定方法およびキャリブレーションシステムに関する。   The present invention relates to a method for estimating an attachment position of an imaging device (imaging camera) attached to a vehicle and a calibration system.

車載用カメラの搭載率が増加し、それに伴い撮像カメラを利用したアプリケーションが実用化されている。代表的なアプリケーションとして、撮像カメラで撮像された車両周辺の画像を車内ディスプレイに表示し、運転の支援や注意喚起を行うものがある。   The mounting rate of in-vehicle cameras has increased, and along with this, applications using imaging cameras have been put into practical use. As a typical application, there is an application that displays an image around a vehicle captured by an imaging camera on an in-vehicle display to assist driving or call attention.

車両に取り付けられる撮像カメラは、精度を一定に保つために、車両1台ずつに対してキャリブレーションが必要である。特許文献1は、車載用撮像カメラでキャリブレーションパターンを撮像し、撮像された画像からキャリブレーションパターンの輪郭を抽出し、輪郭からキャリブレーションパターンの位置情報を抽出し、抽出された位置情報から車載用撮像カメラの取り付け高さ、取り付け角度を推定し、推定された結果をメモリに記憶しておきこれを動作時に使用する、キャリブレーション方法を開示している。   An imaging camera attached to a vehicle requires calibration for each vehicle in order to keep the accuracy constant. In Patent Document 1, a calibration pattern is captured by an in-vehicle imaging camera, the contour of the calibration pattern is extracted from the captured image, the position information of the calibration pattern is extracted from the contour, and the in-vehicle is extracted from the extracted position information. Discloses a calibration method in which the mounting height and mounting angle of an imaging camera are estimated, and the estimated results are stored in a memory and used during operation.

特開2001−116515号公報JP 2001-116515 A

しかしながら、従来の撮像カメラのキャリブレーションには、次のような課題がある。図1は、撮像カメラのキャリブレーションを行うときの撮像カメラとターゲットボードとの位置関係を示す図である。同図において、車両Mの前方バンパー近傍に撮像カメラ10が取り付けられている。撮像カメラ10は、車両Mの前方の広範囲を撮像することができるように視野角の大きい魚眼レンズを用い、かつその光軸は地面12とほぼ平行である。車両Mの前方の既知の距離Lに、ターゲットボードTGが設置される。ターゲットボードTGは、撮像カメラのキャリブレーションを行うものであり、キャリブレーションボードまたはキャリブレーションパターンと同義である。   However, the calibration of a conventional imaging camera has the following problems. FIG. 1 is a diagram illustrating a positional relationship between the imaging camera and the target board when the imaging camera is calibrated. In the figure, an imaging camera 10 is attached in the vicinity of a front bumper of a vehicle M. The imaging camera 10 uses a fisheye lens with a large viewing angle so that a wide range in front of the vehicle M can be imaged, and its optical axis is substantially parallel to the ground 12. A target board TG is installed at a known distance L in front of the vehicle M. The target board TG is used to calibrate the imaging camera and is synonymous with a calibration board or a calibration pattern.

ターゲットボードTGは、図2に示すように、薄板の部材上に、矩形状の枠パターンFと枠パターンF内に6つの円パターンCを含んでいる。枠パターンFと円パターンCは、黒色である。このようなターゲットボードTGは、図3に示すように、車両Mの前方に複数(図面では、3つ)並んで設置され、中央のターゲットボードTGの長手方向の中心線は、撮像カメラ10のX−Y平面の光軸Oにほぼ一致している。キャリブレーションを実施するとき、撮像カメラ10によりターゲットボードTGが撮像され、その撮像データからターゲットボードTGの枠パターンFのコーナの座標や円パターンCの中心座標が算出され、その座標情報から撮像カメラ10の取り付け位置や取り付け角度を推定する。   As shown in FIG. 2, the target board TG includes a rectangular frame pattern F and six circular patterns C in the frame pattern F on a thin plate member. The frame pattern F and the circle pattern C are black. As shown in FIG. 3, a plurality of (three in the drawing) such target boards TG are installed side by side, and the center line in the longitudinal direction of the center target board TG is the center of the imaging camera 10. It almost coincides with the optical axis O of the XY plane. When the calibration is performed, the target board TG is imaged by the imaging camera 10, the corner coordinates of the frame pattern F of the target board TG and the center coordinates of the circular pattern C are calculated from the imaging data, and the imaging camera is calculated from the coordinate information. 10 mounting positions and mounting angles are estimated.

しかしながら、撮像カメラ10は、ワイドビューを実現するために視野角が大きな魚眼レンズを用いることが多く、魚眼レンズを介して撮像されたターゲットボードTGの画像には、大きな歪みが生じ、枠パターンFまたは円パターンCの座標を正確に算出することができない場合がある。撮像データの歪みを補正することも可能であるが、仮にそのような補正を施したとしても、依然として正確な座標位置を得ることができない場合がある。   However, the imaging camera 10 often uses a fisheye lens with a large viewing angle in order to realize a wide view, and a large distortion occurs in the image of the target board TG imaged through the fisheye lens, resulting in a frame pattern F or a circle. In some cases, the coordinates of the pattern C cannot be calculated accurately. Although it is possible to correct the distortion of the imaging data, even if such correction is performed, an accurate coordinate position may still not be obtained.

図4は、魚眼レンズを介してターゲットボードTGを撮像したときの撮像データ(以下、便宜上、魚眼画像または魚眼画像データという)を示している。図に示すように、魚眼画像は、中央よりも周辺において歪みが大きくなり、また、遠方よりも近傍において歪が大きくなる。このため、左右のターゲットボードTGの画像の歪みが大きく、かつターゲットボードTGの画像の手前側の歪みが大きくなる。こうした歪みが大きい魚眼画像データを用いて枠パターンFや円パターンCの座標を求めると、求められた座標の誤差が大きくなり、撮像カメラの取り付け位置を正確に推定することができなくなってしまう。これは、キャリブレーションの失敗の原因となり、再度、撮像カメラの取り付け位置の推定等の作業を繰返さなければならず、キャリブレーションの作業効率の悪化につながってしまう。   FIG. 4 shows image data (hereinafter referred to as fish-eye image or fish-eye image data for convenience) when the target board TG is imaged via the fish-eye lens. As shown in the figure, the fish-eye image has a greater distortion in the periphery than in the center, and a greater distortion in the vicinity than in the distance. For this reason, the distortion of the images of the left and right target boards TG is large, and the distortion on the near side of the images of the target boards TG is large. If the coordinates of the frame pattern F and the circle pattern C are obtained using such fish-eye image data having a large distortion, an error of the obtained coordinates becomes large, and it becomes impossible to accurately estimate the mounting position of the imaging camera. . This causes a failure in calibration, and operations such as estimation of the mounting position of the imaging camera must be repeated again, leading to deterioration in the work efficiency of calibration.

本発明は、このような従来の課題を解決し、撮像装置の取り付け位置の推定を従来よりも正確に行うことができる撮像装置の取り付け位置の推定方法およびそのキャリブレーションシステムを提供することを目的とする。   An object of the present invention is to solve such a conventional problem and to provide a method for estimating the mounting position of an imaging apparatus and a calibration system thereof that can estimate the mounting position of the imaging apparatus more accurately than in the past. And

本発明に係る、車両に取り付けられた撮像装置の取り付け位置を推定する推定方法は、パターンが設けられたターゲットを車両に対して予め決められた位置に設置する第1のステップと、前記撮像装置により前記ターゲットを撮像する第2のステップと、第2のステップで撮像された撮像データを俯瞰画像データに変換する第3のステップと、前記俯瞰画像データに基づき前記ターゲット上のパターンの座標位置を算出する第4のステップと、第4のステップで算出された座標位置を前記撮像データ上の座標位置に変換する第5のステップと、第5のステップで変換された座標位置に基づき前記撮像装置の取り付け位置を推定する第6のステップとを有する。   According to the present invention, an estimation method for estimating an attachment position of an imaging device attached to a vehicle includes a first step of installing a target provided with a pattern at a predetermined position with respect to the vehicle, and the imaging device. A second step of imaging the target, a third step of converting the imaging data imaged in the second step into overhead image data, and a coordinate position of the pattern on the target based on the overhead image data. A fourth step of calculating, a fifth step of converting the coordinate position calculated in the fourth step into a coordinate position on the imaging data, and the imaging device based on the coordinate position converted in the fifth step And a sixth step of estimating the mounting position.

好ましくは前記パターンは、少なくとも1つの円形パターンを含み、第4のステップは、前記円形パターンの重心を算出する。好ましくは前記パターンは、矩形状の枠パターンを含み、第4のステップは、前記枠パターンのコーナの座標を算出する。好ましくは第3のステップは、前記ターゲットのパターンを含む撮像データの一部を俯瞰画像データに変換する。好ましくは前記パターンは、矩形状の枠パターンと当該枠パターン内に少なくとも1つの円形パターンとを含み、第3のステップは、枠パターンに沿うように撮像データをトリミングし、トリミングされた撮像データを俯瞰画像に変換する。   Preferably, the pattern includes at least one circular pattern, and the fourth step calculates a center of gravity of the circular pattern. Preferably, the pattern includes a rectangular frame pattern, and the fourth step calculates corner coordinates of the frame pattern. Preferably, the third step converts a part of the imaging data including the target pattern into overhead image data. Preferably, the pattern includes a rectangular frame pattern and at least one circular pattern in the frame pattern. In the third step, the imaging data is trimmed along the frame pattern, and the trimmed imaging data is obtained. Convert to a bird's-eye view image.

本発明に係る車両に取り付けられた撮像装置のキャリブレーションを行うシステムは、車両に取り付けられた撮像装置と、車両に対して予め決められた位置に設置され、パターンが形成されたターゲットと、前記撮像装置から得られた撮像データに基づき撮像装置の取り付け位置を推定する推定手段とを含み、前記推定手段は、前記撮像装置に前記ターゲットを撮像させる手段と、前記撮像手段より撮像された前記ターゲットのパターンを含む撮像データを俯瞰画像データに変換する画像変換手段と、変換された俯瞰画像データに基づき前記ターゲットのパターンの座標位置を算出する算出手段と、算出された座標位置を前記撮像データ上の座標位置に変換する座標変換手段とを有する。   A system for calibrating an imaging device attached to a vehicle according to the present invention includes an imaging device attached to the vehicle, a target installed in a predetermined position with respect to the vehicle, and a pattern formed thereon, Estimation means for estimating the mounting position of the imaging device based on imaging data obtained from the imaging device, the estimation means causing the imaging device to image the target, and the target imaged by the imaging means Image conversion means for converting imaging data including the pattern into overhead image data, calculation means for calculating the coordinate position of the target pattern based on the converted overhead image data, and calculating the calculated coordinate position on the imaging data Coordinate conversion means for converting to the coordinate position.

好ましくは前記パターンは、少なくとも1つの円形パターンを含み、前記算出手段は、前記円形パターンの重心を算出する。好ましくは前記パターンは、矩形状の枠パターンを含み、前記算出手段は、前記枠パターンのコーナの座標を算出する。好ましくは前記画像変換手段は、前記ターゲットのパターンを含む撮像データの一部を俯瞰画像データに変換する。好ましくは前記パターンは、矩形状の枠パターンと当該枠パターン内に少なくとも1つの円形パターンとを含み、前記画像変換手段は、枠パターンに沿うように撮像データをトリミングし、トリミングされた撮像データを俯瞰画像に変換する。好ましくは前記画像変換手段は、撮像データを車両の真上から見下ろす画像に視点変換して表示するための視点変換手段を利用して前記撮像データを俯瞰画像データに変換する。   Preferably, the pattern includes at least one circular pattern, and the calculation unit calculates a center of gravity of the circular pattern. Preferably, the pattern includes a rectangular frame pattern, and the calculation means calculates corner coordinates of the frame pattern. Preferably, the image conversion means converts a part of the imaging data including the target pattern into overhead image data. Preferably, the pattern includes a rectangular frame pattern and at least one circular pattern in the frame pattern, and the image conversion unit trims the imaging data along the frame pattern, and the trimmed imaging data is obtained. Convert to a bird's-eye view image. Preferably, the image conversion means converts the imaging data into overhead image data using viewpoint conversion means for converting the viewpoint of the captured image data into an image looking down from directly above the vehicle.

本発明によれば、撮像データを俯瞰画像データに変換してパターンの座標位置を算出し、この座標を撮像データ上の座標に変換するようにしたので、より正確にパターンの座標位置を求めることができ、その結果、撮像装置の取り付け位置を精度良く推定することができる。   According to the present invention, the coordinate position of the pattern is calculated by converting the imaging data into the overhead image data, and the coordinates are converted into the coordinates on the imaging data, so that the coordinate position of the pattern can be obtained more accurately. As a result, the mounting position of the imaging device can be estimated with high accuracy.

キャリブレーションを行うときの撮像カメラとターゲットボードの位置関係の例を示す図である。It is a figure which shows the example of the positional relationship of the imaging camera and target board at the time of performing calibration. ターゲットボードのパターンの例を示す平面図である。It is a top view which shows the example of the pattern of a target board. ターゲットボードと車両の関係を示す平面図である。It is a top view which shows the relationship between a target board and a vehicle. 図3に示すターゲットボードを撮像したときの魚眼画像の例である。It is an example of a fisheye image when the target board shown in FIG. 3 is imaged. 本実施の形態で好ましく用いられる撮像カメラが搭載された車両の例を示す平面図である。It is a top view which shows the example of the vehicle carrying the imaging camera preferably used by this Embodiment. 本発明の実施例に係るキャリブレーションシステムの構成を示す図である。It is a figure which shows the structure of the calibration system which concerns on the Example of this invention. 図6に示す制御装置のキャリブレーションに関する機能ブロック図である。It is a functional block diagram regarding the calibration of the control apparatus shown in FIG. 本実施例に係るキャリブレーション方法を説明するためのフローチャートである。It is a flowchart for demonstrating the calibration method which concerns on a present Example. ターゲットボードの俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image of a target board.

以下、本発明の実施の形態について図面を参照して詳細に説明する。好ましい実施の形態として、図5に示すように、車両Mの前方、後方および左右に、4つの撮像カメラ110A、110B、110C、110Dが取り付けられ、4つの撮像カメラは、それぞれ視野角θ(好ましくは160度以上)の魚眼レンズを用いて車両のほぼ水平方向の全周囲を撮像する。車両Mには、4つの撮像カメラによって撮像された魚眼画像データを、車両真上から見下ろすような俯瞰画像データに視点変換し、これを車内ディスプレイに表示する、いわゆるトップビュー画像を表示するシステムが搭載されている。   It will be described in detail with reference to the drawings, embodiments of the present invention. As a preferred embodiment, as shown in FIG. 5, four imaging cameras 110A, 110B, 110C, and 110D are attached to the front, rear, and left and right of the vehicle M, and the four imaging cameras each have a viewing angle θ (preferably The image of the entire circumference of the vehicle is captured using a fisheye lens of 160 degrees or more. In the vehicle M, a system for displaying a so-called top view image in which fisheye image data captured by four imaging cameras is converted into a bird's-eye view image data as if looking down from directly above the vehicle and displayed on the in-vehicle display. Is installed.

図6は、本発明の実施例に係るキャリブレーションシステムの構成を示すブロック図である。本実施例のキャリブレーションシステム100は、車両に取り付けられた撮像カメラ110(110A〜110D)と、入出力装置120と、メモリ130と、バス150を介して各部に接続された制御装置140とを含んで構成され、キャリブレーションシステム100は、トップビュー画像を表示するシステムの一部を構成するものであってもよい。   FIG. 6 is a block diagram showing the configuration of the calibration system according to the embodiment of the present invention. The calibration system 100 according to the present embodiment includes an imaging camera 110 (110A to 110D) attached to a vehicle, an input / output device 120, a memory 130, and a control device 140 connected to each unit via a bus 150. The calibration system 100 may be a part of a system that displays a top view image.

撮像カメラ110(110A〜110D)は、上記したようにトップビュー画像を表示するため、車両Mの前後左右にそれぞれ4つ搭載されている。4つの撮像カメラは、車両に取り付けられたときにキャリブレーションを実施され、キャブレーションによって得られた情報は、トップビュー画像を表示する際に利用することができる。   The imaging cameras 110 (110A to 110D) are mounted on the front, rear, left and right of the vehicle M in order to display the top view image as described above. The four imaging cameras are calibrated when attached to the vehicle, and the information obtained by the calibration can be used when displaying the top view image.

ターゲットボードTGは、種々のパターンを含んで構成することができるが、例えば、図2に示したように、矩形状の枠パターンFと枠パターンF内に6つの等しい大きさの円パターンCを含んで構成される。ターゲットボードTGは、薄板状の部材であれば特にその材質に制限はなく、その表面に枠パターンFと円パターンCが描画され、あるいはそれらのパターンが貼り付けられる。好ましくは、枠パターンFおよび円パターンCは、周辺環境との差異が明瞭となるように黒色で表される。さらに、ターゲットボードTGは、必ずしも可搬性の部材である必要はなく、パターンF、Cが地面に固定的に描画されたものでもよい。   The target board TG can be configured to include various patterns. For example, as shown in FIG. 2, a rectangular frame pattern F and six circular patterns C of the same size are included in the frame pattern F. Consists of including. The target board TG is not particularly limited as long as it is a thin plate member, and a frame pattern F and a circular pattern C are drawn on the surface thereof, or those patterns are attached. Preferably, the frame pattern F and the circular pattern C are represented in black so that the difference from the surrounding environment becomes clear. Furthermore, the target board TG is not necessarily a portable member, and the patterns F and C may be fixedly drawn on the ground.

入出力装置120は、ユーザからの指示を入力する手段、例えば、キーボード、マウスなどを含み、さらに画像や音声を出力する手段、例えば、ディスプレイ、スピーカなどを含む。メモリ130は、キャリブレーションを実施するために必要なデータ、キャリブレーションによって推定された撮像カメラの取り付け位置に関する情報などを記憶する。制御装置140は、バスBを介して各部に接続され、例えば、コンピュータ装置、サーバ装置、その他の電子装置により構成される。制御装置140は、必ずしも車内に搭載される必要はなく、車外に設置されバスBを介して各部に接続されるものであってもよい。好ましくは制御装置140は、プログラムを格納するメモリとそのプログラムを実行する処理装置を含み、メモリには、キャリブレーションを実施するためのプログラムや、撮像カメラによって撮像された撮像データをトップビュー画像に視点変換して表示するためのプログラムなどが格納される。   The input / output device 120 includes means for inputting an instruction from the user, such as a keyboard and a mouse, and further includes means for outputting an image and sound, such as a display and a speaker. The memory 130 stores data necessary for performing calibration, information regarding the mounting position of the imaging camera estimated by the calibration, and the like. The control device 140 is connected to each unit via the bus B, and is configured by, for example, a computer device, a server device, and other electronic devices. The control device 140 is not necessarily installed in the vehicle, and may be installed outside the vehicle and connected to each part via the bus B. Preferably, the control device 140 includes a memory for storing the program and a processing device for executing the program, and the memory includes a program for performing calibration and imaging data captured by the imaging camera as a top view image. Stores a program for converting the viewpoint and displaying it.

図7は、撮像装置140のキャリブレーションに関する機能ブロック図である。
制御装置140は、撮像カメラ110によって撮像された魚眼画像データを俯瞰画像データに変換する画像変換手段142と、俯瞰画像データに基づきターゲットボードTG上のパターンの座標位置を算出する座標位置算出手段144と、算出された座標位置を魚眼画像データ上の座標に変換する座標変換手段146と、変換された座標情報に基づき撮像カメラの取り付け位置を推定する位置推定手段148とを有する。
FIG. 7 is a functional block diagram relating to calibration of the imaging apparatus 140.
The control device 140 converts an image conversion unit 142 that converts fisheye image data captured by the imaging camera 110 into overhead image data, and a coordinate position calculation unit that calculates a coordinate position of a pattern on the target board TG based on the overhead image data. 144, coordinate conversion means 146 for converting the calculated coordinate position into coordinates on the fisheye image data, and position estimation means 148 for estimating the mounting position of the imaging camera based on the converted coordinate information.

次に、図8のフローチャートを参照して、撮像カメラのキャリブレーション方法を説明する。ここでは、車両Mの前方に搭載された撮像カメラ110Aのキャリブレーションの例を説明する。先ず、図1または図3に示すように、車両Mに対して既知の距離Lにある地面上に、3つのターゲットボードTGを設置する(ステップS101)。ターゲットボードTGの間隔は、予め決められており、その間隔は既知である。   Next, a calibration method of the imaging camera will be described with reference to the flowchart of FIG. Here, an example of calibration of the imaging camera 110A mounted in front of the vehicle M will be described. First, as shown in FIG. 1 or FIG. 3, three target boards TG are installed on the ground at a known distance L with respect to the vehicle M (step S101). The interval between the target boards TG is determined in advance, and the interval is known.

次に、制御装置140は、撮像カメラ110AにターゲットボードTGを撮像させる(ステップS102)。撮像カメラ110Aによって撮像された魚眼画像データには、図4に示したように、3つのターゲットボードTGが映されている。   Next, the control device 140 causes the imaging camera 110A to image the target board TG (step S102). In the fish-eye image data imaged by the imaging camera 110A, as shown in FIG. 4, three target boards TG are shown.

次に、画像変換手段142は、撮像カメラ110Aによって撮像された魚眼画像データを受け取り(ステップS103)、これを俯瞰画像データに変換する(ステップS104)。
俯瞰画像データへの変換は、好ましくは、トップビュー画像を表示するシステムにおいて用意されている視点変換処理用の変換式またはマッピングテーブルを利用することができる。これらの変換式またはマッピングテーブルは、公知であり、ここには詳述しない。
Next, the image conversion means 142 receives the fisheye image data imaged by the imaging camera 110A (step S103), and converts it into overhead image data (step S104).
For the conversion to the overhead image data, it is preferable to use a conversion formula or mapping table for viewpoint conversion processing prepared in a system for displaying a top view image. These conversion formulas or mapping tables are well known and will not be described in detail here.

また、魚眼画像データのすべてが俯瞰画像データに変換される必要はなく、ターゲットボードTGが映された一部の魚眼画像データを俯瞰画像データに変換することが望ましい。魚眼画像データ内の変換すべき領域を予め決めておき、当該領域をトリミングして俯瞰画像データに変換してもよいし、魚眼画像データに映し出されたターゲットボードTGの枠パターンFを抽出し、この枠パターンFに沿うように魚眼画像データをトリミングし俯瞰画像データに変換してもよい。変換に不要な画像データを削減することで、画像用メモリの容量を小さくすることができ、また、画像変換処理に要する時間を短縮することができる。   Further, it is not necessary to convert all the fisheye image data into the overhead image data, and it is desirable to convert a part of the fisheye image data on which the target board TG is projected into the overhead image data. An area to be converted in the fisheye image data may be determined in advance, and the area may be trimmed and converted into overhead image data, or the frame pattern F of the target board TG displayed in the fisheye image data is extracted. Then, the fish-eye image data may be trimmed along the frame pattern F and converted into overhead image data. By reducing the image data unnecessary for conversion, the capacity of the image memory can be reduced, and the time required for the image conversion process can be shortened.

図9は、トリミングされた魚眼画像データを俯瞰画像データに変換したときのターゲットボードTGの画像を示している。俯瞰画像データは、真上から見下ろすようにX−Y平面に投影されるため、図からも明らかなように、ターゲットボードTGの枠パターンFおよび円パターンCには、ほとんど歪みが見られない。   FIG. 9 shows an image of the target board TG when the trimmed fish-eye image data is converted into overhead image data. Since the overhead image data is projected onto the XY plane so as to look down from directly above, the frame pattern F and the circular pattern C of the target board TG hardly show any distortion, as is apparent from the drawing.

次に、座標位置算出手段144は、X−Y平面に投影された俯瞰画像データに基づきターゲットボードの枠パターンFおよび/または円パターンCの座標位置を算出する(ステップS105)。円パターンCの中心座標の求め方を例示する。座標位置算出手段144は、俯瞰画像データの枠パターンFを識別し、枠パターンFの内の黒色の画素を抽出し、これらの画素数をカウントし、全体の画素数から円パターンCの重心を求め、これを円パターンCの中心座標とする。同様の方法で、ターゲットボードTGの全ての円パターンCの中心座標を算出する。また、座標位置算出手段144は、必要であれば、枠パターンFの4つのコーナの座標を算出する。例えば、枠パターンFの輪郭を抽出し、線と線が直交する位置を算出し、これをコーナの座標とする。   Next, the coordinate position calculation unit 144 calculates the coordinate position of the frame pattern F and / or the circle pattern C of the target board based on the overhead image data projected on the XY plane (step S105). An example of how to obtain the center coordinates of the circle pattern C will be described. The coordinate position calculation means 144 identifies the frame pattern F of the overhead image data, extracts black pixels in the frame pattern F, counts the number of these pixels, and calculates the center of gravity of the circular pattern C from the total number of pixels. This is obtained and used as the center coordinates of the circle pattern C. In the same way, the center coordinates of all the circular patterns C of the target board TG are calculated. Further, the coordinate position calculation means 144 calculates the coordinates of the four corners of the frame pattern F if necessary. For example, the outline of the frame pattern F is extracted, the position where the line intersects perpendicularly is calculated, and this is set as the corner coordinates.

次に、座標変換手段146は、算出された円パターンCの中心座標および/または枠パターンFのコーナの座標を、魚眼画像データの座標に変換する(ステップS106)。この座標変換は、魚眼画像データから俯瞰画像データへの変換と逆の変換を行うことにより実現される。   Next, the coordinate conversion means 146 converts the calculated center coordinates of the circle pattern C and / or corner coordinates of the frame pattern F into the coordinates of fisheye image data (step S106). This coordinate conversion is realized by performing a conversion reverse to the conversion from fisheye image data to overhead image data.

次に、位置推定手段148は、魚眼画像データ上の円パターンCの中心座標および/または枠パターンFのコーナの座標と撮像カメラ110Aとの相対的な位置関係に基づき、撮像カメラ110Aの取り付け位置に関する情報、例えば、撮像カメラの取り付けの高さ、角度(光軸)を推定し(ステップS107)、これをメモリ130に記憶する(ステップS108)。この取り付け位置に関する情報は、トップビュー画像を表示するときに利用される。以上のようにして撮像カメラ110Aのキャリブレーションが実施され、他の残りの撮像カメラ110B〜110Dについても同様の方法でキャリブレーションが実施される(ステップS109)。   Next, the position estimation means 148 attaches the imaging camera 110A based on the relative positional relationship between the center coordinates of the circular pattern C and / or the corner coordinates of the frame pattern F on the fisheye image data and the imaging camera 110A. Information on the position, for example, the height and angle (optical axis) of the mounting of the imaging camera is estimated (step S107) and stored in the memory 130 (step S108). This information on the attachment position is used when displaying the top view image. The imaging camera 110A is calibrated as described above, and the remaining imaging cameras 110B to 110D are also calibrated in the same manner (step S109).

このように本実施例によれば、魚眼画像データを俯瞰画像データに変換して円パターンCおよび/または枠パターンFのコーナの座標を算出するようにしたので、算出された座標は、魚眼画像データのように歪んだ画像から算出された座標よりも誤差が少なく、その結果、撮像カメラの取り付け位置を従来よりも精度良く推定することができる。   As described above, according to the present embodiment, the fisheye image data is converted into the overhead image data, and the corner coordinates of the circle pattern C and / or the frame pattern F are calculated. There are fewer errors than coordinates calculated from a distorted image such as eye image data, and as a result, the mounting position of the imaging camera can be estimated more accurately than in the past.

以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiment of the present invention has been described in detail above, but the present invention is not limited to the specific embodiment, and various modifications can be made within the scope of the present invention described in the claims. Deformation / change is possible.

上記実施例では、ターゲットボードTGが枠パターンFと円パターンCを含んでいるが、これらのパターンの数、形状等は、目的に応じて適宜変更することが可能である。さらに、上記実施例では、車両の前後左右の4箇所に撮像カメラ110A〜110Dを取り付けたときのキャリブレーション方法を示したが、これは一例であり、撮像カメラの取り付け個数や取り付け位置は、必要に応じて適宜変更することができる。さらに上実施例では、トップビュー画像を表示する表示システムを搭載する車両を例に用いたが、本発明は、撮像カメラによる撮像データを表示するようなあらゆる車両において適用することができる。   In the above embodiment, the target board TG includes the frame pattern F and the circular pattern C. However, the number, shape, and the like of these patterns can be changed as appropriate according to the purpose. Furthermore, in the said Example, although the calibration method when image pick-up camera 110A-110D was attached to four places of front and rear, right and left of a vehicle was shown, this is an example and the attachment number and attachment position of an image pickup camera are required. It can be changed as appropriate according to the situation. Further, in the above embodiment, a vehicle equipped with a display system that displays a top view image is used as an example. However, the present invention can be applied to any vehicle that displays imaging data from an imaging camera.

TG:ターゲットボード
F:枠パターン
C:円パターン
O:光軸
θ:視野角
M:車両
100:キャリブレーションシステム
110、110A〜110D:撮像カメラ
120:入出力装置
130:メモリ
140:制御装置
TG: target board F: frame pattern C: circular pattern O: optical axis θ: viewing angle M: vehicle 100: calibration system 110, 110A to 110D: imaging camera 120: input / output device 130: memory 140: control device

Claims (11)

車両に取り付けられた撮像装置の取り付け位置を推定する推定方法であって、
パターンが設けられたターゲットを車両に対して予め決められた位置に設置する第1のステップと、
前記撮像装置により前記ターゲットを撮像する第2のステップと、
第2のステップで撮像された撮像データを俯瞰画像データに変換する第3のステップと、
前記俯瞰画像データに基づき前記ターゲット上のパターンの座標位置を算出する第4のステップと、
第4のステップで算出された座標位置を前記撮像データ上の座標位置に変換する第5のステップと、
第5のステップで変換された座標位置に基づき前記撮像装置の取り付け位置を推定する第6のステップと、
を有する推定方法。
An estimation method for estimating an attachment position of an imaging device attached to a vehicle,
A first step of installing a target provided with a pattern at a predetermined position with respect to the vehicle;
A second step of imaging the target by the imaging device;
A third step of converting the image data captured in the second step into overhead image data;
A fourth step of calculating the coordinate position of the pattern on the target based on the overhead image data;
A fifth step of converting the coordinate position calculated in the fourth step into a coordinate position on the imaging data;
A sixth step of estimating an attachment position of the imaging device based on the coordinate position converted in the fifth step;
An estimation method comprising:
前記パターンは、少なくとも1つの円形パターンを含み、第4のステップは、前記円形パターンの重心を算出する、請求項1に記載の推定方法。 The estimation method according to claim 1, wherein the pattern includes at least one circular pattern, and the fourth step calculates a center of gravity of the circular pattern. 前記パターンは、矩形状の枠パターンを含み、第4のステップは、前記枠パターンのコーナの座標を算出する、請求項1に記載の推定方法。 The estimation method according to claim 1, wherein the pattern includes a rectangular frame pattern, and the fourth step calculates corner coordinates of the frame pattern. 第3のステップは、前記ターゲットのパターンを含む撮像データの一部を俯瞰画像データに変換する、請求項1に記載の推定方法。 The estimation method according to claim 1, wherein the third step converts part of the imaging data including the target pattern into overhead image data. 前記パターンは、矩形状の枠パターンと当該枠パターン内に少なくとも1つの円形パターンとを含み、第3のステップは、枠パターンに沿うように撮像データをトリミングし、トリミングされた撮像データを俯瞰画像に変換する、請求項4に記載の推定方法。 The pattern includes a rectangular frame pattern and at least one circular pattern in the frame pattern. In the third step, the imaging data is trimmed along the frame pattern, and the trimmed imaging data is obtained as an overhead image. The estimation method according to claim 4, wherein the estimation method is converted into: 車両に取り付けられた撮像装置のキャリブレーションを行うシステムであって、
車両に取り付けられた撮像装置と、
車両に対して予め決められた位置に設置され、パターンが形成されたターゲットと、
前記撮像装置から得られた撮像データに基づき撮像装置の取り付け位置を推定する推定手段とを含み、
前記推定手段は、
前記撮像装置に前記ターゲットを撮像させる手段と、
前記撮像手段より撮像された前記ターゲットのパターンを含む撮像データを俯瞰画像データに変換する画像変換手段と、
変換された俯瞰画像データに基づき前記ターゲットのパターンの座標位置を算出する算出手段と、
算出された座標位置を前記撮像データ上の座標位置に変換する座標変換手段とを有する、撮像装置のキャリブレーションシステム。
A system for calibrating an imaging device attached to a vehicle,
An imaging device attached to the vehicle;
A target installed in a predetermined position with respect to the vehicle and formed with a pattern;
Including estimation means for estimating an attachment position of the imaging device based on imaging data obtained from the imaging device,
The estimation means includes
Means for causing the imaging device to image the target;
Image conversion means for converting imaging data including the target pattern imaged by the imaging means into overhead image data;
Calculation means for calculating the coordinate position of the pattern of the target based on the converted overhead image data;
A calibration system for an imaging apparatus, comprising: coordinate conversion means for converting the calculated coordinate position into a coordinate position on the imaging data.
前記パターンは、少なくとも1つの円形パターンを含み、前記算出手段は、前記円形パターンの重心を算出する、請求項6に記載のキャリブレーションシステム。 The calibration system according to claim 6, wherein the pattern includes at least one circular pattern, and the calculation unit calculates a center of gravity of the circular pattern. 前記パターンは、矩形状の枠パターンを含み、前記算出手段は、前記枠パターンのコーナの座標を算出する、請求項6に記載のシステム。 The system according to claim 6, wherein the pattern includes a rectangular frame pattern, and the calculation means calculates corner coordinates of the frame pattern. 前記画像変換手段は、前記ターゲットのパターンを含む撮像データの一部を俯瞰画像データに変換する、請求項6に記載のシステム。 The system according to claim 6, wherein the image conversion unit converts a part of imaging data including the target pattern into overhead image data. 前記パターンは、矩形状の枠パターンと当該枠パターン内に少なくとも1つの円形パターンとを含み、前記画像変換手段は、枠パターンに沿うように撮像データをトリミングし、トリミングされた撮像データを俯瞰画像に変換する、請求項9に記載のシステム。 The pattern includes a rectangular frame pattern and at least one circular pattern in the frame pattern, and the image conversion unit trims the imaging data along the frame pattern, and the trimmed imaging data is an overhead image. The system according to claim 9, which converts to 前記画像変換手段は、撮像データを車両の真上から見下ろす画像に視点変換して表示するための視点変換手段を利用して前記撮像データを俯瞰画像データに変換する、請求項6に記載のシステム。 The system according to claim 6, wherein the image conversion unit converts the imaging data into bird's-eye image data using viewpoint conversion unit for converting the viewpoint into an image looking down from directly above the vehicle. .
JP2009194974A 2009-08-26 2009-08-26 Method for estimating fixation position of imaging device and calibration system Withdrawn JP2011047725A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009194974A JP2011047725A (en) 2009-08-26 2009-08-26 Method for estimating fixation position of imaging device and calibration system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009194974A JP2011047725A (en) 2009-08-26 2009-08-26 Method for estimating fixation position of imaging device and calibration system

Publications (1)

Publication Number Publication Date
JP2011047725A true JP2011047725A (en) 2011-03-10

Family

ID=43834213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009194974A Withdrawn JP2011047725A (en) 2009-08-26 2009-08-26 Method for estimating fixation position of imaging device and calibration system

Country Status (1)

Country Link
JP (1) JP2011047725A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001155A (en) * 2011-06-13 2013-01-07 Alpine Electronics Inc Apparatus and method for detecting posture of on-vehicle camera
JP2013024656A (en) * 2011-07-19 2013-02-04 Toyota Motor Corp Optical axis adjusting system
WO2015019526A1 (en) 2013-08-08 2015-02-12 パナソニックIpマネジメント株式会社 Image processing device and markers
CN111325799A (en) * 2018-12-16 2020-06-23 北京初速度科技有限公司 Large-range high-precision static all-around automatic calibration pattern and system
WO2023028955A1 (en) * 2021-09-02 2023-03-09 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for measurement

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001155A (en) * 2011-06-13 2013-01-07 Alpine Electronics Inc Apparatus and method for detecting posture of on-vehicle camera
US9361687B2 (en) 2011-06-13 2016-06-07 Alpine Electronics, Inc. Apparatus and method for detecting posture of camera mounted on vehicle
JP2013024656A (en) * 2011-07-19 2013-02-04 Toyota Motor Corp Optical axis adjusting system
WO2015019526A1 (en) 2013-08-08 2015-02-12 パナソニックIpマネジメント株式会社 Image processing device and markers
US10165262B2 (en) 2013-08-08 2018-12-25 Panasonic Intellectual Property Management Co., Ltd. Image processing device and markers
CN111325799A (en) * 2018-12-16 2020-06-23 北京初速度科技有限公司 Large-range high-precision static all-around automatic calibration pattern and system
CN111325799B (en) * 2018-12-16 2024-01-02 北京魔门塔科技有限公司 Large-range high-precision static looking-around automatic calibration pattern and system
WO2023028955A1 (en) * 2021-09-02 2023-03-09 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for measurement

Similar Documents

Publication Publication Date Title
JP5124147B2 (en) Camera calibration apparatus and method, and vehicle
JP7060774B2 (en) Calibration methods, devices, devices, storage media, and programs for external parameters of image acquisition devices
JP4737317B2 (en) Vehicle periphery shooting display system
JP4715334B2 (en) Vehicular image generation apparatus and method
JP4857143B2 (en) Camera posture calculation target device, camera posture calculation method using the same, and image display method
US20090128686A1 (en) Imaging apparatus
CN111540004A (en) Single-camera polar line correction method and device
JP2011047725A (en) Method for estimating fixation position of imaging device and calibration system
TWI387775B (en) Positioning system and method thereof
JP2022085910A (en) Camera calibration method, apparatus, electronic device, storage medium, program, and roadside apparatus
JP2009276233A (en) Parameter calculating apparatus, parameter calculating system and program
CN111627066A (en) Method and device for adjusting external parameters of camera
JP4855278B2 (en) Camera parameter acquisition device
JP2010219663A (en) Calibration method and calibration system for imager
JP2009267603A (en) Vehicle periphery monitoring apparatus, and setting correcting method of distortion correction value which is applied thereto
US7715614B2 (en) Method and device for producing component data
JP4623657B2 (en) Captured image processing apparatus and captured image processing method for electronic component mounter
JP2011155412A (en) Projection system and distortion correction method in the same
WO2017203796A1 (en) Information processing device, information processing method, and program
JP2009267602A (en) Vehicle periphery monitoring apparatus, and setting correcting method of camera installing position and posture information which is applicable thereto
JP5487946B2 (en) Camera image correction method, camera apparatus, and coordinate transformation parameter determination apparatus
KR100786351B1 (en) System and method for teaching work-robot based on ar
US20140119510A1 (en) X-ray imaging system for grnerating space transfer functions and method thereof
CN114993266B (en) Positioning device and positioning system
JP2009123131A (en) Imaging apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121106