JP2010258897A - Determination program and calibration apparatus - Google Patents

Determination program and calibration apparatus Download PDF

Info

Publication number
JP2010258897A
JP2010258897A JP2009108280A JP2009108280A JP2010258897A JP 2010258897 A JP2010258897 A JP 2010258897A JP 2009108280 A JP2009108280 A JP 2009108280A JP 2009108280 A JP2009108280 A JP 2009108280A JP 2010258897 A JP2010258897 A JP 2010258897A
Authority
JP
Japan
Prior art keywords
image
coordinates
camera
jig
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009108280A
Other languages
Japanese (ja)
Other versions
JP5369873B2 (en
Inventor
Seiya Shimizu
誠也 清水
Shinya Namatame
慎也 生田目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009108280A priority Critical patent/JP5369873B2/en
Publication of JP2010258897A publication Critical patent/JP2010258897A/en
Application granted granted Critical
Publication of JP5369873B2 publication Critical patent/JP5369873B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To allow a user to easily determine whether or not a parameter of a calibration result is appropriate. <P>SOLUTION: A calibration apparatus 100 obtains an image photographed by a camera, a parameter of the camera and coordinates of a jig on a user designated image in the state where jigs are disposed on regulated coordinates so as to include a plurality of jigs in a field of view of the camera installed in a vehicle. The calibration apparatus generates a bird's-eye view image of a mobile based on the image and the parameter and transforms the coordinates of the jig on the image and the regulated coordinates into coordinates on the bird's eye view image. The calibration apparatus then determines whether or not the parameter is appropriate based on the coordinates of the jig on the bird's eye view image and a transformation result. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、移動体に設置されたカメラのキャリブレーションを行うキャリブレーション装置等に関する。   The present invention relates to a calibration apparatus that calibrates a camera installed on a moving body.

近年、移動体の周囲に設置した複数のカメラが撮影した画像を用いて、移動体を上方から撮影したような俯瞰(鳥瞰)図や、各画像を合成して360度のパノラマ画像を表示する技術が普及している。このように、カメラが撮影した画像を俯瞰図などに変換する場合や、各画像を合成してパノラマ画像を表示するためには、カメラの位置(x座標、y座標、z座標)や角度(ロール角、ピッチ角、ヨー角)、レンズ系のひずみや水平、垂直画角などを含む各種のパラメータを用いる。   In recent years, an image taken by a plurality of cameras installed around a moving body is used to display an overhead view (bird's-eye view) as if the moving body was taken from above, and a 360-degree panoramic image is displayed by combining the images. Technology is widespread. Thus, in order to convert an image captured by the camera into an overhead view or to display a panoramic image by combining the images, the camera position (x coordinate, y coordinate, z coordinate) and angle ( Various parameters including a roll angle, pitch angle, yaw angle), distortion of the lens system, horizontal, vertical angle of view, and the like are used.

移動体にカメラを設置する場合、レンズ系のひずみや水平、垂直画角などのカメラ固有のパラメータは予めカメラ毎に計測しておけばよい。しかし、カメラの位置や角度は取り付け条件によって誤差を含む場合がある。このうち、カメラの位置に関する誤差は比較的無視することができるが、カメラの角度に関する誤差は、俯瞰画像やパノラマ画像に与える影響が大きいため、無視することができない。従って、何らかのキャリブレーションを実行することで、カメラの位置や角度を算出することが必要である。   When a camera is installed on a moving body, parameters unique to the camera such as distortion of the lens system, horizontal, and vertical angle of view may be measured for each camera in advance. However, the camera position and angle may include errors depending on the mounting conditions. Among these, the error relating to the camera position can be relatively ignored, but the error relating to the camera angle has a great influence on the overhead view image and the panoramic image and cannot be ignored. Therefore, it is necessary to calculate the position and angle of the camera by performing some kind of calibration.

従来のキャリブレーション技術には、形状が既知のキャリブレーション冶具を路面上、かつ、各カメラの視野のオーバーラップ部分の任意の場所に1個ずつ配置し、キャリブレーション冶具の形状条件よりカメラの位置と角度を算出する技術が提案されている。   In the conventional calibration technology, one calibration jig with a known shape is placed on the road surface at an arbitrary location in the overlapping part of the field of view of each camera, and the position of the camera is determined by the shape conditions of the calibration jig. A technique for calculating the angle is proposed.

また、1点の特徴点からなる小型のキャリブレーション冶具を、カメラ視野のオーバーラップ部分に2個ずつ配置し、1カメラあたり4個のキャリブレーション冶具を撮影することで、パラメータの一部を算出する技術も存在する。   In addition, two small calibration jigs consisting of one feature point are placed in the overlapping part of the camera field of view, and a part of the parameters is calculated by photographing four calibration jigs per camera. There are also techniques to do this.

特開2008−187566号公報JP 2008-187466 A 特開2008−245326号公報JP 2008-245326 A

しかしながら、上述した従来の技術では、キャリブレーションを実行してカメラのパラメータを算出した場合に、算出したパラメータが適切なパラメータであるか否かを簡易にユーザが確認することができないという問題があった。   However, the above-described conventional technique has a problem in that when the camera parameter is calculated by performing calibration, the user cannot easily check whether the calculated parameter is an appropriate parameter. It was.

一般的に、キャリブレーションにより算出したパラメータが適切なものか否かを確認する作業は煩雑であるため、パラメータ算出時におけるパラメータの確認作業が行われない場合が多い。そのため、キャリブレーションにより求めたパラメータから俯瞰図やパノラマ画像を生成して初めて、パラメータの間違いに気がつき、キャリブレーションを始めからやり直すケースがあった。   In general, the operation of confirming whether or not the parameter calculated by calibration is appropriate is complicated, and therefore, the operation of confirming the parameter at the time of parameter calculation is often not performed. For this reason, there is a case in which the calibration is re-executed from the beginning only when an overhead view or a panoramic image is generated from the parameters obtained by the calibration and the parameter is noticed.

開示の技術は、上記に鑑みてなされたものであって、キャリブレーション結果のパラメータが適切なものであるか否かをユーザが容易に判定することができる判定プログラムおよびキャリブレーション装置を提供することを目的とする。   The disclosed technology has been made in view of the above, and provides a determination program and a calibration device that allow a user to easily determine whether a parameter of a calibration result is appropriate or not. With the goal.

この判定プログラムは、コンピュータに、移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータと、前記画像上の治具の座標を取得するステップと、前記画像と前記パラメータに基づいて生成された前記移動体の俯瞰画像を取得するステップと、前記画像上の治具の座標と前記規定座標を前記俯瞰画像上の座標に変換するステップと、前記俯瞰画像上の治具の座標と、前記変換するステップの変換結果を基にして、前記パラメータが適切であるか否かを判定するステップとを実行させることを要件とする。   The determination program includes an image captured by the camera and a parameter of the camera in a state where the jig is arranged at a predetermined coordinate so that a plurality of jigs are included in the field of view of the camera installed on the moving body. Obtaining the coordinates of the jig on the image; obtaining the bird's-eye view image of the moving object generated based on the image and the parameter; and the coordinates of the jig on the image and the rule A step of converting coordinates to coordinates on the bird's-eye view image, a step of determining whether or not the parameter is appropriate based on the coordinates of the jig on the bird's-eye view image and the conversion result of the converting step It is a requirement to execute.

この判定プログラムをコンピュータに実行させることで、キャリブレーション結果のパラメータが適切なものであるか否かをユーザが容易に判定することが出来る。   By causing the computer to execute this determination program, the user can easily determine whether or not the parameter of the calibration result is appropriate.

図1は、本実施例1にかかる冶具の一例を示す図である。FIG. 1 is a diagram illustrating an example of a jig according to the first embodiment. 図2は、その他の冶具の一例を示す図である。FIG. 2 is a diagram illustrating an example of another jig. 図3は、車両に設置されたカメラと冶具の関係を示す図である。FIG. 3 is a diagram illustrating a relationship between a camera and a jig installed in the vehicle. 図4は、各カメラが撮影した画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of an image captured by each camera. 図5は、カメラの各パラメータを説明するための図である。FIG. 5 is a diagram for explaining each parameter of the camera. 図6は、カメラの各パラメータを説明するための図である。FIG. 6 is a diagram for explaining each parameter of the camera. 図7は、冶具の画像座標の特定結果を示す図である。FIG. 7 is a diagram illustrating a result of specifying the image coordinates of the jig. 図8は、カメラ座標系における冶具とカメラの関係を示す図である。FIG. 8 is a diagram illustrating the relationship between the jig and the camera in the camera coordinate system. 図9は、車両座標系における冶具とカメラの関係を示す図である。FIG. 9 is a diagram illustrating a relationship between a jig and a camera in the vehicle coordinate system. 図10は、俯角ψと光軸ベクトルVWAの関係を示す図である。FIG. 10 is a diagram showing the relationship between the depression angle ψ and the optical axis vector VWA . 図11は、鉛直ベクトルと回転角φの関係を示す図である。FIG. 11 is a diagram showing the relationship between the vertical vector and the rotation angle φ. 図12は、車両座標系およびカメラ座標系における鉛直ベクトルの関係を示す図である。FIG. 12 is a diagram illustrating a relationship between vertical vectors in the vehicle coordinate system and the camera coordinate system. 図13は、本実施例にかかるキャリブレーション装置の構成を示す図である。FIG. 13 is a diagram illustrating the configuration of the calibration apparatus according to the present embodiment. 図14は、マーカ画像格納部110aに格納された画像データの一例を示す図である。FIG. 14 is a diagram illustrating an example of image data stored in the marker image storage unit 110a. 図15は、マーカ画像格納部110bに格納された画像データの一例を示す図である。FIG. 15 is a diagram illustrating an example of image data stored in the marker image storage unit 110b. 図16は、画像の合成を説明するための図である。FIG. 16 is a diagram for explaining image composition. 図17は、視線ベクトルVと路面上の点の座標Rの関係を示す図である。Figure 17 is a diagram showing the relationship between the coordinates R W of a point on the road surface and a line-of-sight vector V W. 図18は、俯瞰画像の一例を示す図である。FIG. 18 is a diagram illustrating an example of an overhead image. 図19は、俯瞰画像上の俯瞰座標に十字を描画した場合の表示例を示す図である。FIG. 19 is a diagram illustrating a display example when a cross is drawn at the overhead coordinates on the overhead image. 図20は、ユーザが介在する場合の判定部の処理手順を示すフローチャートである。FIG. 20 is a flowchart illustrating a processing procedure of the determination unit when a user is present. 図21は、ポインティング誤差確認処理の処理手順を示すフローチャートである。FIG. 21 is a flowchart showing the procedure of the pointing error confirmation process. 図22は、冶具の設定位置確認処理の処理手順を示すフローチャートである。FIG. 22 is a flowchart illustrating a processing procedure of a jig setting position confirmation process. 図23は、ユーザが介在しない場合の判定部の処理手順を示すフローチャートである。FIG. 23 is a flowchart illustrating the processing procedure of the determination unit when the user does not intervene. 図24は、ポインティング誤差判定処理の処理手順を示すフローチャートである。FIG. 24 is a flowchart illustrating a processing procedure of the pointing error determination process. 図25は、冶具の設置誤差判定処理の処理手順を示すフローチャートである。FIG. 25 is a flowchart illustrating a processing procedure of jig installation error determination processing. 図26は、実施例にかかるキャリブレーション装置を構成するコンピュータのハードウェア構成を示す図である。FIG. 26 is a diagram illustrating a hardware configuration of a computer configuring the calibration apparatus according to the embodiment.

以下に、本願の開示する判定プログラムおよびキャリブレーション装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Embodiments of a determination program and a calibration device disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

本実施例1にかかるキャリブレーション装置は、車両に設置されたカメラの視野に複数の冶具が含まれるように冶具が規定座標に配置された状態で、カメラが撮影した画像と、カメラのパラメータと、画像上の冶具の座標を取得する。キャリブレーション装置は、画像とパラメータに基づいて、移動体の俯瞰画像を生成すると共に、カメラ画像上の冶具の座標と規定座標を俯瞰画像上の座標に変換する。そして、キャリブレーション装置は、俯瞰画像上の冶具の座標と、変換結果を基にして、パラメータが適切であるか否かを判定する。   The calibration device according to the first embodiment includes an image captured by the camera, camera parameters, and a camera parameter in a state where the jig is arranged at the specified coordinates so that the field of view of the camera installed in the vehicle includes a plurality of jigs. Get the coordinates of the jig on the image. The calibration device generates a bird's-eye view image of the moving body based on the image and the parameters, and converts the coordinates of the jig and the specified coordinates on the camera image into coordinates on the bird's-eye view image. Then, the calibration device determines whether or not the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result.

このように、本実施例1にかかるキャリブレーション装置は、視野内の複数の治具を撮影したカメラの画像とパラメータを基にして俯瞰画像を生成し、俯瞰画像上の治具の座標と、変換結果を比較して、パラメータが適切であるか否かを判定するので、キャリブレーション結果のパラメータが適切なものであるか否かを容易かつ早期に確認でき、ユーザにかかる負担を軽減させることが出来る。   As described above, the calibration apparatus according to the first embodiment generates an overhead image based on the image and parameters of the camera that captured the plurality of jigs in the field of view, and the coordinates of the jig on the overhead image, Compare the conversion results to determine whether the parameters are appropriate, so you can easily and quickly confirm whether the parameters of the calibration results are appropriate, and reduce the burden on the user I can do it.

次に、キャリブレーション装置が利用する冶具について説明する。図1は、本実施例1にかかる冶具の一例を示す図である。図1に示すように、この冶具は、縦幅297mm、横幅210mmの冶具であり、冶具の表面には、幅30mmの線が十字状にペイントされている。なお、冶具は、冶具自体を識別出来る構成であれば、どのような冶具を利用しても良い。図2は、その他の冶具の一例を示す図である。   Next, a jig used by the calibration device will be described. FIG. 1 is a diagram illustrating an example of a jig according to the first embodiment. As shown in FIG. 1, this jig is a jig having a vertical width of 297 mm and a horizontal width of 210 mm, and a line having a width of 30 mm is painted in a cross shape on the surface of the jig. In addition, as long as the jig can identify the jig itself, any jig may be used. FIG. 2 is a diagram illustrating an example of another jig.

次に、車両に設置されたカメラと冶具の関係について説明する。図3は、車両に設置されたカメラと冶具の関係を示す図である。図3に示すように、車両はカメラ20〜23を有する。車両中心の路面に原点を置き、車両進行方向をY軸とし、Y軸と直交する水平方向をX軸とし、垂直上方向をZ軸とする座標系において、冶具10と冶具11は、車両前端より0.5m前方、かつY軸に対照に左右1mの位置に設置されている。冶具12と冶具13は、車両後端より0.5m後方、かつY軸に対照に左右1mの位置に設置されている。 Next, the relationship between the camera installed in the vehicle and the jig will be described. FIG. 3 is a diagram illustrating a relationship between a camera and a jig installed in the vehicle. As shown in FIG. 3, the vehicle has cameras 20 to 23. Place the origin to the road surface of the vehicle center, the vehicle traveling direction and Y W-axis, a horizontal direction orthogonal to the Y W-axis and X W axis, the vertical upward direction in the coordinate system with the Z W-axis, the jig 10 and the jig 11 It is installed 0.5m ahead the vehicle front end, and the positions of the left and right 1m to control the Y W-axis. Jig 12 and the jig 13 is placed 0.5m behind the rear end of the vehicle, and the positions of the left and right 1m to control the Y W-axis.

図4は、各カメラが撮影した画像の一例を示す図である。カメラ20の視野には、冶具10,11が含まれ、カメラ21の視野には、冶具11,12が含まれる。カメラ22の視野には、冶具12、13が含まれ、カメラ23の視野には、冶具13,10が含まれる。なお、以下の説明において、前述の車両を基準とした座標軸系を車両座標系と表記し、カメラを基準とした座標軸系をカメラ座標系と表記する。   FIG. 4 is a diagram illustrating an example of an image captured by each camera. The field of view of the camera 20 includes the jigs 10 and 11, and the field of view of the camera 21 includes the jigs 11 and 12. The field of view of the camera 22 includes the jigs 12 and 13, and the field of view of the camera 23 includes the jigs 13 and 10. In the following description, the coordinate axis system based on the vehicle is referred to as a vehicle coordinate system, and the coordinate axis system based on the camera is referred to as a camera coordinate system.

次に、カメラのパラメータについて説明する。図5および図6は、カメラの各パラメータを説明するための図である。図5および図6に示すように、カメラのパラメータは、カメラ座標系におけるカメラの俯角ψ、回転角φ、パン角θ、車両座標系における3次元座標(x、y、z)を有する。以下の説明において、カメラの俯角ψ、回転角φ、パン角θをカメラ角度パラメータと表記する。車両座標系における3次元座標(x、y、z)をカメラ位置パラメータと表記する。   Next, camera parameters will be described. 5 and 6 are diagrams for explaining each parameter of the camera. As shown in FIGS. 5 and 6, the camera parameters include a camera depression angle ψ, a rotation angle φ, a pan angle θ in the camera coordinate system, and a three-dimensional coordinate (x, y, z) in the vehicle coordinate system. In the following description, the camera depression angle ψ, rotation angle φ, and pan angle θ are referred to as camera angle parameters. Three-dimensional coordinates (x, y, z) in the vehicle coordinate system are expressed as camera position parameters.

本実施例1では、カメラ位置パラメータを既知とし、カメラ角度パラメータを算出するものとする。次に、カメラ角度パラメータの算出法について説明する。キャリブレーション装置は、各カメラが撮影した画像を取得し、取得した画像中に含まれる冶具の位置を特定する。以下、画像中の冶具の位置を画像座標と表記する。図7は、冶具の画像座標の特定結果を示す図である。画像中の画像座標を特定する処理は、周知の画像処理により行ってもよいし、ユーザがポインティングデバイスを用いてインタラクティブに行ってもよい。図7に示すように、各画像座標をP、Pとする。 In the first embodiment, it is assumed that the camera position parameter is known and the camera angle parameter is calculated. Next, a camera angle parameter calculation method will be described. The calibration device acquires an image captured by each camera, and specifies the position of the jig included in the acquired image. Hereinafter, the position of the jig in the image is referred to as image coordinates. FIG. 7 is a diagram illustrating a result of specifying the image coordinates of the jig. The process of specifying the image coordinates in the image may be performed by well-known image processing, or may be performed interactively by the user using a pointing device. As shown in FIG. 7, each image coordinate is set to P 1 and P 2 .

キャリブレーション装置は、冶具の画像座標を特定した後に、かかる画像座標をカメラ座標の視線ベクトルに変換する。ここで、視線ベクトルとは、カメラの光学中心と冶具を結んだ線分の方向ベクトルである。視線ベクトルの方向については、光学中心からマーカへの方向を正の方向とする。ユーザは、予め、画像座標と視線ベクトルとの関係を示す変換テーブルを作成しておき、キャリブレーション装置は、変換テーブルを利用して、画像座標を視線ベクトルVC1、VC2に変換する。 After specifying the image coordinates of the jig, the calibration device converts the image coordinates into a line-of-sight vector of camera coordinates. Here, the line-of-sight vector is a direction vector of a line segment connecting the optical center of the camera and the jig. Regarding the direction of the line-of-sight vector, the direction from the optical center to the marker is a positive direction. The user creates a conversion table indicating the relationship between the image coordinates and the line-of-sight vector in advance, and the calibration apparatus converts the image coordinates into line-of-sight vectors V C1 and V C2 using the conversion table.

図8は、カメラ座標系における冶具とカメラの関係を示す図である。図8に示すように、カメラ座標系における光軸ベクトルをVca=(0、0、−1)とし、各冶具の視線ベクトルをそれぞれVC1、VC2とする。このとき、画像座標Pの視線ベクトルと光軸ベクトルVCAのなす入射角aは、
=arccos(Vca・Vci)・・・(1)
により計算する。
FIG. 8 is a diagram illustrating the relationship between the jig and the camera in the camera coordinate system. As shown in FIG. 8, it is assumed that the optical axis vector in the camera coordinate system is V ca = (0, 0, −1), and the line-of-sight vectors of the jigs are V C1 and V C2 , respectively. At this time, the incident angle a i form the line of sight vector and the optical axis vector V CA of the image coordinates P i is
a i = arccos (V ca · V ci ) (1)
Calculate by

図9は、車両座標系における冶具とカメラの関係を示す図である。車両座標系における冶具は、道路平面上(z=0)であり、図3のように配置位置が決められているので、車両座標系における冶具の座標MW1、MW2は既知となる。また、カメラの座標CW1を既知とすれば、車両座標系における視線ベクトルVW1、VW2は、
Wi=(MWi−CW1)/|MWi−CW1|・・・(2)
により算出することが出来る。カメラの座標CW1は、カメラ位置パラメータに対応する。
FIG. 9 is a diagram illustrating a relationship between a jig and a camera in the vehicle coordinate system. Jig in the vehicle coordinate system is on the road plane (z = 0), since the position as shown in FIG. 3 are determined, the coordinates M W1, M W2 of the jig in the vehicle coordinate system is known. If the camera coordinates C W1 are known, the line-of-sight vectors V W1 and V W2 in the vehicle coordinate system are
V Wi = (M Wi −C W1 ) / | M Wi −C W1 | (2)
Can be calculated. The camera coordinates CW1 correspond to camera position parameters.

式(1)により算出した入射角aは、図8に示したカメラ座標系でも、図9に示した車両座標系でも同じである。したがって、式(2)で導出済みの視線ベクトルVW1、VW2と、入射角a、aの角度を成すベクトルを求めることで、車両座標系における光軸ベクトルVWAを算出する。 The incident angle a i calculated by the equation (1) is the same in both the camera coordinate system shown in FIG. 8 and the vehicle coordinate system shown in FIG. Therefore, the optical axis vector V WA in the vehicle coordinate system is calculated by obtaining a vector that forms the line-of-sight vectors V W1 and V W2 derived from the equation (2) and the incident angles a 1 and a 2 .

ここで、視線ベクトルVW1、VW2をそれぞれ、VW1=(VW1x、VW1y、VW1z)、V=(VW2x、VW2y、VW2z)とし、求める光軸ベクトルVWAを、VWA=(VWAx、VWAy、VWAz)とする。光軸ベクトルVWAを単位ベクトルと仮定すると、
WAx +VWAy +VWAz =1・・・(3)
が成り立つ。また、内積の条件から
W1xWAx+VW1yWAy+VW1zWAz=cosa・・・(4)
W2xWAx+VW2yWAy+VW2zWAz=cosa・・・(5)
が成り立つ。キャリブレーション装置は、式(3)〜(5)の連立方程式を解くことで、車両座標系における光軸ベクトルVWAを算出する。
Here, it is assumed that the line-of-sight vectors V W1 and V W2 are V W1 = (V W1x , V W1y , V W1z ), V 2 = (V W2x , V W2y , V W2z ), and the obtained optical axis vector V WA is Let V WA = (V WAx , V WAy , V WAz ). Assuming that the optical axis vector V WA is a unit vector,
V WAx 2 + V WAy 2 + V WAz 2 = 1 ··· (3)
Holds. Further, from the inner product condition, V W1x V WAx + V W1y V WAy + V W1z V WAz = cosa 1 (4)
V W2x V WAx + V W2y V WAy + V W2z V WAz = cosa 2 (5)
Holds. The calibration apparatus calculates the optical axis vector V WA in the vehicle coordinate system by solving the simultaneous equations of Expressions (3) to (5).

キャリブレーション装置は、車両座標系における光軸ベクトルVWAを基準に、パン角θと俯角ψを算出する。パン角θは、
θ=arctan(VWAx/VWAy)・・・(6)
により算出することができる。
The calibration device calculates the pan angle θ and the depression angle ψ with reference to the optical axis vector V WA in the vehicle coordinate system. The pan angle θ is
θ = arctan (V WAx / V WAY ) (6)
Can be calculated.

図10は、俯角ψと光軸ベクトルVWAの関係を示す図である。俯角と光軸ベクトルVWAは図10の関係があるため、俯角ψは、
ψ=π/2−arccos(VCA・VWN)・・・(7)
により算出することができる。式(7)において、VWNは車両座標系における鉛直下方向を示す鉛直ベクトルである。VWNは、VWN=(0、0、−1)となる。
FIG. 10 is a diagram showing the relationship between the depression angle ψ and the optical axis vector VWA . Since the depression angle and the optical axis vector V WA there is relationship of FIG. 10, the depression angle [psi,
ψ = π / 2-arccos (V CA · V WN ) (7)
Can be calculated. In Expression (7), V WN is a vertical vector indicating a vertically downward direction in the vehicle coordinate system. V WN is V WN = (0, 0, −1).

図11は、鉛直ベクトルと回転角φの関係を示す図であり、図12は、車両座標系およびカメラ座標系における鉛直ベクトルの関係を示す図である。キャリブレーション装置は、カメラ座標系における鉛直ベクトルVCNを算出し、図11の関係から回転角φを算出する。 11 is a diagram showing the relationship between the vertical vector and the rotation angle φ, and FIG. 12 is a diagram showing the relationship between the vertical vector in the vehicle coordinate system and the camera coordinate system. Calibration apparatus calculates the vertical vector V CN in the camera coordinate system, calculates a rotation angle φ from the relationship of FIG. 11.

図12の左側に示すように、車両座標系で鉛直ベクトルVWNは、VWN=(0、0、1)であり、視線ベクトルVW1、VW2は、式(2)で算出済みであるため、鉛直ベクトルVWNと、視線ベクトルVW1、VW2の入射角c、cは、
=arccos(VWN・Vwi)・・・(8)
により算出する。
As shown on the left side of FIG. 12, the vertical vector V WN is V WN = (0, 0, 1) in the vehicle coordinate system, and the line-of-sight vectors V W1 and V W2 have been calculated by the equation (2). Therefore , the incident angles c 1 and c 2 of the vertical vector V WN and the line-of-sight vectors V W1 and V W2 are
c i = arccos (V WN · V wi ) (8)
Calculated by

式(8)により算出した入射角cは、車両座標系でも、カメラ座標系でも同じである。したがって、視線ベクトルVC1、VC2と、入射角c、cの角度を成すベクトルを求めることで、カメラ座標系の鉛直ベクトルVCNを算出する。 The incident angle c i calculated by the equation (8) is the same in both the vehicle coordinate system and the camera coordinate system. Accordingly, the line-of-sight vector V C1, V C2, by obtaining the vector at an angle of incidence angles c 1, c 2, and calculates the vertical vector V CN of the camera coordinate system.

ここで、視線ベクトルVc1、Vc2をそれぞれ、Vc1=(Vc1x、Vc1y、Vc1z)、V=(Vc2x、Vc2y、Vc2z)とし、求める光軸ベクトルVCNを、VCN=(VCNx、VCNy、VCNz)とする。光軸ベクトルVCNを単位ベクトルと仮定すると、
CNx +VCNy +VCNz =1・・・(9)
が成り立つ。また、内積の条件から
C1xCNx+VC1yCNy+VC1zCNz=cosc・・・(10)
C2xCNx+VC2yCNy+VC2zCNz=cosc・・・(11)
が成り立つ。キャリブレーション装置は、式(9)〜(11)の連立方程式を解くことで、カメラ座標系における鉛直ベクトルVCNを算出する。キャリブレーション装置は、回転角φを、
φ=arctan(−VCNz/VCNy)・・・(12)
により算出する。
Here, it is assumed that the line-of-sight vectors V c1 and V c2 are V c1 = (V c1x , V c1y , V c1z ), V 2 = (V c2x , V c2y , V c2z ), and the obtained optical axis vector V CN is Let V CN = (V CNx , V CNy , V CNz ). Assuming that the optical axis vector V CN is a unit vector,
V CNx 2 + V CNy 2 + V CNz 2 = 1 (9)
Holds. In addition, V C1x from the inner product of the conditions V CNx + V C1y V CNy + V C1z V CNz = cosc 1 ··· (10)
V C2x V CNx + V C2y V CNy + V C2z V CNz = cosc 2 (11)
Holds. The calibration device calculates the vertical vector V CN in the camera coordinate system by solving the simultaneous equations of Equations (9) to (11). The calibration device uses the rotation angle φ,
φ = arctan (−V CNz / V CNy ) (12)
Calculated by

次に、本実施例1にかかるキャリブレーション装置の構成について説明する。図13は、本実施例にかかるキャリブレーション装置の構成を示す図である。図13に示すように、このキャリブレーション装置100は、フレームバッファ110、マーカ抽出部120、カメラ角度パラメータ推定部130、俯瞰画像作成部140、判定部150、パラメータ格納部160、ディスプレイ170を有する。キャリブレーション装置100は、カメラ20〜23に接続する。   Next, the configuration of the calibration apparatus according to the first embodiment will be described. FIG. 13 is a diagram illustrating the configuration of the calibration apparatus according to the present embodiment. As illustrated in FIG. 13, the calibration apparatus 100 includes a frame buffer 110, a marker extraction unit 120, a camera angle parameter estimation unit 130, an overhead image creation unit 140, a determination unit 150, a parameter storage unit 160, and a display 170. The calibration apparatus 100 is connected to the cameras 20-23.

フレームバッファ110は、カメラ20〜23が撮影した画像のデータを格納するバッファである。フレームバッファ110は、カメラ毎に画像データを格納する。フレームバッファ110は、マーカ画像格納部110a,110bを有する。   The frame buffer 110 is a buffer for storing image data captured by the cameras 20 to 23. The frame buffer 110 stores image data for each camera. The frame buffer 110 includes marker image storage units 110a and 110b.

マーカ抽出部120は、フレームバッファ110から画像データを取得し、周知の画像処理技術を利用して、画像データ上の冶具の画像座標を特定する手段である。または、マーカ抽出部120は、画像データをディスプレイ170に出力し、ユーザに冶具の位置を指定させ、指定された座標を画像座標として特定しても良い。マーカ抽出部120は、特定した画像座標のデータを各カメラの画像データごとに分類し、パラメータ格納部160の指定位置パラメータに登録する。マーカ抽出部120は、画像座標の特定が終了した場合に、カメラ角度パラメータ推定部に完了通知を行う。   The marker extraction unit 120 is means for acquiring image data from the frame buffer 110 and specifying the image coordinates of the jig on the image data using a known image processing technique. Alternatively, the marker extraction unit 120 may output the image data to the display 170, cause the user to specify the position of the jig, and specify the specified coordinates as the image coordinates. The marker extraction unit 120 classifies the specified image coordinate data for each image data of each camera and registers the data in the designated position parameter of the parameter storage unit 160. The marker extraction unit 120 notifies the camera angle parameter estimation unit of completion when the identification of the image coordinates is completed.

マーカ抽出部120は、冶具を特定した場合に、該冶具を含む画像データをマーカ画像格納部110a、110bに格納する。マーカ抽出部120は、画像データを複数に分割して、マーカ画像格納部110a,110bに格納しても良い。   When the marker extraction unit 120 specifies a jig, the marker extraction unit 120 stores image data including the jig in the marker image storage units 110a and 110b. The marker extraction unit 120 may divide the image data into a plurality of pieces and store them in the marker image storage units 110a and 110b.

例えば、ユーザが冶具10,11を車両の前方の所定の位置に配置し、後方に冶具12,13を配置しない状態で、カメラ20,21,23が画像を撮影する。カメラ20の画像データには、冶具10,11が含まれ、カメラ21には、冶具11が含まれ、カメラ23には、冶具10が含まれる。   For example, the camera 20, 21, 23 takes an image in a state where the user places the jigs 10, 11 at a predetermined position in front of the vehicle and does not place the jigs 12, 13 behind. The image data of the camera 20 includes the jigs 10 and 11, the camera 21 includes the jig 11, and the camera 23 includes the jig 10.

マーカ抽出部120は、カメラ20の画像データから冶具を2つ、カメラ21,23の画像データから冶具を1つずつ検出する。この場合、マーカ抽出部120は、カメラ20の全画像データと、カメラ21,23の半分の画像データを、マーカ画像格納部110aに格納する。図14は、マーカ画像格納部110aに格納された画像データの一例を示す図である。   The marker extraction unit 120 detects two jigs from the image data of the camera 20 and one jig from the image data of the cameras 21 and 23. In this case, the marker extraction unit 120 stores all image data of the camera 20 and half of the image data of the cameras 21 and 23 in the marker image storage unit 110a. FIG. 14 is a diagram illustrating an example of image data stored in the marker image storage unit 110a.

続いて、ユーザが冶具12,13を車両の後方の所定の位置に配置し、前方に冶具10,11を配置しない状態で、カメラ21,22,23が画像を撮影する。カメラ21の画像データには、冶具12が含まれ、カメラ22の画像データには、冶具12,13が含まれ、カメラ23の画像データには、冶具13が含まれる。   Subsequently, the camera 21, 22, 23 shoots images in a state where the user places the jigs 12, 13 at a predetermined position behind the vehicle and does not place the jigs 10, 11 in front. The image data of the camera 21 includes the jig 12, the image data of the camera 22 includes the jigs 12 and 13, and the image data of the camera 23 includes the jig 13.

マーカ抽出部120は、カメラ22の画像データから冶具を2つ、カメラ21,23の画像データから冶具を1つずつ検出する。この場合、マーカ抽出部120は、カメラ22の全画像データと、カメラ21,23の半分の画像データを、マーカ画像格納部110bに格納する。図15は、マーカ画像格納部110bに格納された画像データの一例を示す図である。   The marker extraction unit 120 detects two jigs from the image data of the camera 22 and one jig from the image data of the cameras 21 and 23. In this case, the marker extraction unit 120 stores all image data of the camera 22 and half of the image data of the cameras 21 and 23 in the marker image storage unit 110b. FIG. 15 is a diagram illustrating an example of image data stored in the marker image storage unit 110b.

図13の説明に戻ると、カメラ角度パラメータ推定部130は、カメラ角度パラメータを算出する処理部である。カメラ角度パラメータ推定部130は、マーカ抽出部120から完了通知を受け付けた場合に、指定位置パラメータ161を取得し、変換テーブルを用いて、画像座標を視線ベクトルVC1、VC2に変換する。 Returning to the description of FIG. 13, the camera angle parameter estimation unit 130 is a processing unit that calculates camera angle parameters. When the camera angle parameter estimation unit 130 receives a completion notification from the marker extraction unit 120, the camera angle parameter estimation unit 130 acquires the designated position parameter 161 and converts the image coordinates into the line-of-sight vectors V C1 and V C2 using the conversion table.

そして、カメラ角度推定部130は、マーカ位置パラメータ162とカメラ位置パラメータ163を取得し、上述した式(1)〜(12)を利用して、カメラ角度パラメータを算出する。カメラ角度推定部130は、カメラ角度パラメータ163をパラメータ格納部160に登録する。ここで、マーカ位置パラメータ162は、車両座標系の座標として、図3に示した所定の位置に各冶具を配置した場合の冶具10〜13の座標を含み、カメラ位置パラメータは、車両座標系のカメラ20〜23の座標を含む。カメラ角度パラメータ推定部130は、各カメラ20〜23のカメラ角度パラメータの算出が完了した場合に、完了通知を俯瞰画像作成部140に出力する。   Then, the camera angle estimation unit 130 acquires the marker position parameter 162 and the camera position parameter 163, and calculates the camera angle parameter using the above-described equations (1) to (12). The camera angle estimation unit 130 registers the camera angle parameter 163 in the parameter storage unit 160. Here, the marker position parameter 162 includes the coordinates of the jigs 10 to 13 when the jigs are arranged at the predetermined positions shown in FIG. 3 as the coordinates of the vehicle coordinate system, and the camera position parameters are the coordinates of the vehicle coordinate system. Includes the coordinates of the cameras 20-23. The camera angle parameter estimation unit 130 outputs a completion notification to the overhead image creation unit 140 when the calculation of the camera angle parameters of the cameras 20 to 23 is completed.

俯瞰画像作成部140は、フレームバッファ110に格納された画像データとカメラ角度パラメータ164に基づいて、俯瞰画像を生成する処理部である。俯瞰画像作成部140は、カメラ角度パラメータ推定部130から完了通知を取得した場合に、マーカ画像格納部110aに格納された画像データと、マーカ画像格納部110bに格納された画像データを合成する。図16は、画像の合成を説明するための図である。   The overhead image creation unit 140 is a processing unit that generates an overhead image based on the image data stored in the frame buffer 110 and the camera angle parameter 164. The overhead image creation unit 140 synthesizes the image data stored in the marker image storage unit 110a and the image data stored in the marker image storage unit 110b when a completion notification is acquired from the camera angle parameter estimation unit 130. FIG. 16 is a diagram for explaining image composition.

図16に示すように、俯瞰画像作成部140は、カメラ21の画像データの左半分と右半分の画像データを合成することで、カメラ21の画像データを作成し、カメラ23の画像データの左半分と右半分の画像データを合成することで、カメラ23の画像データを作成する。   As shown in FIG. 16, the overhead image creation unit 140 creates the image data of the camera 21 by combining the left half and the right half of the image data of the camera 21, and the left of the image data of the camera 23. The image data of the camera 23 is created by combining the image data of the half and the right half.

続いて、俯瞰画像作成部140は、各画像データとカメラ角度パラメータを基にして、画像データを俯瞰画像に変換する。俯瞰画像作成部140は、画像データ上の座標と俯瞰画像上の座標との関係を求める。以下の説明において、画像データ上の座標を画像上座標、俯瞰画像上の座標を俯瞰上座標と表記する。   Subsequently, the bird's-eye view image creation unit 140 converts the image data into a bird's-eye view image based on each image data and the camera angle parameter. The overhead image creation unit 140 obtains the relationship between the coordinates on the image data and the coordinates on the overhead image. In the following description, coordinates on image data are referred to as coordinates on the image, and coordinates on the overhead image are referred to as overhead coordinates.

まず、俯瞰画像作成部140は、変換テーブルを用いて、画像上座標Pをカメラ座標系の視線ベクトルVを算出する。俯瞰画像作成部140は、算出したカメラ座標系の視線ベクトルVを、車両座標系の視線ベクトルVに変換する。変換式は、下記に示す式(13)に示す。

Figure 2010258897
First, the overhead image creating unit 140 uses the conversion table, the image on the coordinate P for calculating the sight line vector V C of the camera coordinate system. Bird's-eye view image creation unit 140, a sight line vector V C of the calculated camera coordinate system, into a line-of-sight vector V W of the vehicle coordinate system. The conversion formula is shown in the following formula (13).
Figure 2010258897

式(13)におけるRotX(ψ)、RotY(θ)、RotZ(φ)は、下記の式(14)〜(16)で表される。

Figure 2010258897
Figure 2010258897
Figure 2010258897
RotX (ψ), RotY (θ), and RotZ (φ) in Expression (13) are represented by the following Expressions (14) to (16).
Figure 2010258897
Figure 2010258897
Figure 2010258897

続いて、俯瞰座標作成部140は、カメラ位置パラメータ163(カメラ位置C)に基づいて、車両座標系の視線ベクトルVを、視線ベクトルVの方向にある路面上の点の座標Rを算出する。図17は、視線ベクトルVと路面上の点の座標Rの関係を示す図である。視線ベクトルと座標の関係は、
=C+kV・・・(17)
となる。但し、k=CWZ/VWZとする。
Then, the bird's-eye view coordinate creation unit 140, based on the camera position parameter 163 (camera position C W), the line-of-sight vector V W of the vehicle coordinate system, the coordinates R W of a point on the road surface in the direction of the sight line vector V W Is calculated. Figure 17 is a diagram showing the relationship between the coordinates R W of a point on the road surface and a line-of-sight vector V W. The relationship between the line-of-sight vector and coordinates is
R W = C W + kV W (17)
It becomes. However, k = C WZ / V WZ .

続いて、俯瞰座標作成部140は、座標Rを俯瞰画像上の俯瞰上画像Tに変換する。俯瞰画像とZ=0に平面における車両座標系の(x、y)座標間には線形の関係が成り立つため、原点のオフセット量O(画素)と縮尺(画素/mm)により変換することが出来る。座標Rを俯瞰画像上の俯瞰上座標Tの関係は、
T=S×(RWX,RWY)+O・・・(18)
となる。式(18)において、俯瞰画像の原点と、車両座標の原点が一致している場合には、O=(0,0)となる。
Then, the bird's-eye view coordinate creation unit 140 converts the overhead on the image T on the overhead view image coordinates R W. Since a linear relationship is established between the bird's-eye view image and the (x, y) coordinates of the vehicle coordinate system in a plane at Z = 0, conversion can be performed by the offset amount O (pixel) of the origin and the scale (pixel / mm). . Relationship between the bird's-eye view on the coordinate T on the bird's-eye view image coordinates R W is,
T = S × (R WX , R WY ) + O (18)
It becomes. In Expression (18), when the origin of the overhead image coincides with the origin of the vehicle coordinates, O = (0, 0).

式(13)〜(18)を基にして、画像上座標Pと俯瞰上座標Tの関係が算出されるので、俯瞰画像作成部140は、画像上座標Pの画像データを、対応する俯瞰画像の俯瞰上座標Tに貼り付けることで、俯瞰画像を作成する。図18は、俯瞰画像の一例を示す図である。俯瞰画像作成部140は、俯瞰画像を判定部150に出力する。   Since the relationship between the image coordinates P and the overhead view coordinates T is calculated based on the equations (13) to (18), the overhead image creation unit 140 converts the image data of the image coordinates P into the corresponding overhead image. A bird's-eye view image is created by pasting to the top-of-view coordinates T. FIG. 18 is a diagram illustrating an example of an overhead image. The overhead image creation unit 140 outputs the overhead image to the determination unit 150.

判定部150は、俯瞰画像と、指定位置パラメータ161と、マーカ位置パラメータ162に基づいて、キャリブレーションが成功したか否かを判定する処理部である。以下において、判定部150の処理にユーザが介在する場合と、判定部150が自動的で処理を行う場合に分けて説明する。   The determination unit 150 is a processing unit that determines whether calibration is successful based on the overhead image, the specified position parameter 161, and the marker position parameter 162. In the following, a case where a user is involved in the processing of the determination unit 150 and a case where the determination unit 150 automatically performs processing will be described.

まず、判定部150の処理にユーザが介在する場合について説明する。判定部150は、カメラ20が撮影した画像における冶具の画像座標を指定位置パラメータ161から取得する。また、判定部150は、カメラ20のカメラ位置パラメータ、カメラ角度パラメータを取得する。判定部150は、式(13)〜式(18)を基にして、画像座標に対応する俯瞰上座標を算出する。以下において、画像座標に対応する俯瞰上座標を第1の俯瞰座標と表記する。   First, the case where a user intervenes in the process of the determination part 150 is demonstrated. The determination unit 150 acquires the image coordinates of the jig in the image captured by the camera 20 from the specified position parameter 161. In addition, the determination unit 150 acquires camera position parameters and camera angle parameters of the camera 20. The determination unit 150 calculates overhead coordinates corresponding to the image coordinates based on the equations (13) to (18). Hereinafter, the overhead view coordinates corresponding to the image coordinates are referred to as first overhead coordinates.

判定部150は、俯瞰画像上の第1の俯瞰座標に十字を描画し、ディスプレイに表示する。図19は、俯瞰画像上の俯瞰座標に十字を描画した場合の表示例を示す図である。ユーザは、ディスプレイ170に表示された画像を目視し、冶具の中心と十字が一致しているかを判断する。そして、ユーザは入力装置を介して、冶具の中心と十字の位置は許容範囲内であるか否かの判断結果を判定部150に入力する。判定部150は、カメラ21〜23に関しても上記処理を行う。   The determination unit 150 draws a cross at the first overhead view coordinates on the overhead view image and displays the cross on the display. FIG. 19 is a diagram illustrating a display example when a cross is drawn at the overhead coordinates on the overhead image. The user visually checks the image displayed on the display 170 and determines whether the center of the jig matches the cross. Then, the user inputs a determination result as to whether the center of the jig and the position of the cross are within the allowable range via the input device to the determination unit 150. The determination unit 150 also performs the above process for the cameras 21 to 23.

判定部150は、全てのカメラに対するユーザの判断結果が、1つでも許容範囲内でない場合には、ユーザに冶具の抽出失敗を通知し、マーカ抽出部120を再起動する。冶具の抽出が失敗していた、すなわち十字の中心位置が俯瞰画像上に表示されている冶具の中心とずれているということは、マーカ抽出部120による画像データ上での冶具の座標特定において、画像上の冶具の位置を正しく特定していなかったことを意味する。例えば、画像上の冶具の位置とずれた位置をユーザが冶具の位置として指定した場合、ここでの判定結果は抽出失敗となる。   If even one determination result by the user for all cameras is not within the allowable range, the determination unit 150 notifies the user of the jig extraction failure and restarts the marker extraction unit 120. The extraction of the jig has failed, that is, the center position of the cross is deviated from the center of the jig displayed on the overhead image, in the coordinate specification of the jig on the image data by the marker extraction unit 120, This means that the position of the jig on the image was not correctly specified. For example, when the user designates a position shifted from the position of the jig on the image as the position of the jig, the determination result here is an extraction failure.

一方、全てのカメラに対するユーザの判断結果が、許容範囲内の場合には、判定部150は、カメラ20により撮影された冶具の位置を、マーカ位置パラメータ162から取得する。   On the other hand, when the determination result of the user for all the cameras is within the allowable range, the determination unit 150 acquires the position of the jig imaged by the camera 20 from the marker position parameter 162.

判定部150は、上述した式(18)を用いて、冶具の位置を俯瞰画像上の座標に変換する。以下において、マーカ位置パラメータ162から取得した冶具の位置に対応する俯瞰上座標を第2の俯瞰座標と表記する。   The determination unit 150 converts the position of the jig into coordinates on the bird's-eye view image using Expression (18) described above. Hereinafter, the overhead view coordinates corresponding to the position of the jig acquired from the marker position parameter 162 will be referred to as second overhead view coordinates.

判定部150は、俯瞰画像上の第2の俯瞰座標に十字を描画し、ディスプレイ170に表示する。ユーザは、ディスプレイ170に表示された画像を目視し、冶具の中心と十字が一致しているかを判断する。そして、ユーザは入力装置を介して、冶具の中心と十字の位置は許容範囲内であるか否かの判断結果を判定部150に入力する。判定部150は、カメラ21〜23に関しても上記処理を行う。ここで、マーカ位置パラメータには、図3に示す所定の位置に冶具が正しく設置されていた場合の画像上の各冶具の座標を表している。従って、すなわち十字の中心位置が俯瞰画像上に表示されている冶具の中心とずれているということは、そもそも画像を撮影した時点で冶具が設置されていた場所が、正しい位置ではなかったことを意味する。   The determination unit 150 draws a cross at the second overhead coordinate on the overhead image and displays the cross on the display 170. The user visually checks the image displayed on the display 170 and determines whether the center of the jig matches the cross. Then, the user inputs a determination result as to whether the center of the jig and the position of the cross are within the allowable range via the input device to the determination unit 150. The determination unit 150 also performs the above process for the cameras 21 to 23. Here, the marker position parameter represents the coordinates of each jig on the image when the jig is correctly installed at the predetermined position shown in FIG. Therefore, that is, that the center position of the cross is shifted from the center of the jig displayed on the overhead image, it means that the place where the jig was installed at the time of shooting the image was not the correct position. means.

判定部150は、全てのカメラに対するユーザの判断結果が、1つでも許容範囲内でない場合には、ユーザに冶具配置の失敗を通知し、冶具の配置のやり直しを通知する。一方、全てのカメラに対するユーザの判断結果が、許容範囲内の場合には、判定部150は、キャリブレーションが成功した旨を通知する。   The determination unit 150 notifies the user of the failure of the jig placement and notifies the user of the redo of the jig placement when one or more judgment results of the user for all the cameras are not within the allowable range. On the other hand, when the determination result of the user for all the cameras is within the allowable range, the determination unit 150 notifies that the calibration is successful.

次に、判定部150が自動で処理を行う場合について説明する。判定部150は、カメラ20が撮影した画像における冶具の画像座標を指定位置パラメータ161から取得する。また、判定部150は、カメラ20のカメラ位置パラメータ、カメラ角度パラメータを取得する。判定部150は、式(13)〜式(18)を基にして、画像座標に対応する俯瞰上座標を算出する。以下において、画像座標に対応する俯瞰上座標を第1の俯瞰座標と表記する。   Next, a case where the determination unit 150 performs processing automatically will be described. The determination unit 150 acquires the image coordinates of the jig in the image captured by the camera 20 from the specified position parameter 161. In addition, the determination unit 150 acquires camera position parameters and camera angle parameters of the camera 20. The determination unit 150 calculates overhead coordinates corresponding to the image coordinates based on the equations (13) to (18). Hereinafter, the overhead view coordinates corresponding to the image coordinates are referred to as first overhead coordinates.

判定部150は、俯瞰画像に対する画像処理を行い、俯瞰画像上における冶具の座標を抽出する。以下において、俯瞰画像から直接抽出した冶具の座標を第3の俯瞰座標と表記する。判定部150は、第1の俯瞰座標(TN1、TN2)と第3の俯瞰座標(TM1、TM2)とを比較し、
|TN1−TM1|≦閾値C
かつ
|TN2−TM2|≦閾値C
という条件を満たすか否かを判定する。かかる条件を満たす場合に、判定部150は、カメラ20に対する誤差は許容範囲内であると判定する。条件を満たさない場合には、カメラ20に対する誤差は許容範囲外であると判定する。判定部150は、カメラ21〜23に関しても上記処理を行う。
The determination unit 150 performs image processing on the overhead image and extracts the coordinates of the jig on the overhead image. Hereinafter, the coordinates of the jig directly extracted from the bird's-eye view image are referred to as third bird's-eye coordinates. The determination unit 150 compares the first overhead coordinates (T N1 , T N2 ) with the third overhead coordinates (T M1 , T M2 ),
| T N1 −T M1 | ≦ Threshold C
And | T N2 −T M2 | ≦ Threshold C
It is determined whether or not the condition is satisfied. When such a condition is satisfied, the determination unit 150 determines that the error with respect to the camera 20 is within an allowable range. If the condition is not satisfied, it is determined that the error with respect to the camera 20 is outside the allowable range. The determination unit 150 also performs the above process for the cameras 21 to 23.

判定部150は、全てのカメラに対する判定結果が、1つでも許容範囲内でない場合には、ユーザに冶具の抽出失敗を通知し、マーカ抽出部120を再起動する。   If at least one determination result for all the cameras is not within the allowable range, the determination unit 150 notifies the user of the jig extraction failure and restarts the marker extraction unit 120.

一方、全てのカメラに対する判定結果が、許容範囲内の場合には、判定部150は、カメラ20により撮影された冶具の位置を、マーカ位置パラメータ162から取得する。   On the other hand, when the determination results for all the cameras are within the allowable range, the determination unit 150 acquires the position of the jig photographed by the camera 20 from the marker position parameter 162.

判定部150は、上述した式(18)を用いて、冶具の位置を俯瞰画像上の座標に変換する。以下において、マーカ位置パラメータ162から取得した冶具の位置に対応する俯瞰上座標を第2の俯瞰座標(MT1、MT2)と表記する。 The determination unit 150 converts the position of the jig into coordinates on the bird's-eye view image using Expression (18) described above. Hereinafter, the overhead view coordinates corresponding to the position of the jig acquired from the marker position parameter 162 are referred to as second overhead view coordinates (M T1 , M T2 ).

判定部150は、第2の俯瞰座標と第3の俯瞰座標とを比較し、
|MT1−TM1|≦閾値D
かつ
|MT2−TM2|≦閾値D
という条件を満たすか否かを判定する。かかる条件を満たす場合に、判定部150は、カメラ20に対する誤差は許容範囲内であると判定する。条件を満たさない場合には、カメラ20に対する誤差は許容範囲外であると判定する。判定部150は、カメラ21〜23に関しても上記処理を行う。
The determination unit 150 compares the second overhead view coordinates with the third overhead view coordinates,
| M T1 −T M1 | ≦ Threshold D
And | M T2 −T M2 | ≦ Threshold D
It is determined whether or not the condition is satisfied. When such a condition is satisfied, the determination unit 150 determines that the error with respect to the camera 20 is within an allowable range. If the condition is not satisfied, it is determined that the error with respect to the camera 20 is outside the allowable range. The determination unit 150 also performs the above process for the cameras 21 to 23.

判定部150は、全てのカメラに対するユーザの判断結果が、1つでも許容範囲内でない場合には、ユーザに冶具配置の失敗を通知し、冶具の配置のやり直しを通知する。一方、全てのカメラに対するユーザの判断結果が、許容範囲内の場合には、判定部150は、キャリブレーションが成功した旨を通知する。   The determination unit 150 notifies the user of the failure of the jig placement and notifies the user of the redo of the jig placement when one or more judgment results of the user for all the cameras are not within the allowable range. On the other hand, when the determination result of the user for all the cameras is within the allowable range, the determination unit 150 notifies that the calibration is successful.

パラメータ格納部160は、指定位置パラメータ161、マーカ位置パラメータ162、カメラ位置パラメータ163、カメラ角度パラメータ164を格納する記憶部である。ディスプレイ170は、各種の情報を表示する装置である。   The parameter storage unit 160 is a storage unit that stores a specified position parameter 161, a marker position parameter 162, a camera position parameter 163, and a camera angle parameter 164. The display 170 is a device that displays various types of information.

次に、判定部150の処理手順について説明する。まず、ユーザが介在する場合の判定部150の処理手順について説明する。図20は、ユーザが介在する場合の判定部の処理手順を示すフローチャートである。図20に示すように、判定部150は、カメラ20が撮影した画像に対するポインティング誤差確認処理を行い(ステップS101)、カメラ21が撮影した画像に対するポインティング誤差確認処理を行う(ステップS102)。   Next, the processing procedure of the determination unit 150 will be described. First, the processing procedure of the determination unit 150 when a user is present will be described. FIG. 20 is a flowchart illustrating a processing procedure of the determination unit when a user is present. As illustrated in FIG. 20, the determination unit 150 performs a pointing error confirmation process on an image captured by the camera 20 (step S101), and performs a pointing error confirmation process on an image captured by the camera 21 (step S102).

判定部150は、カメラ22が撮影した画像に対するポインティング誤差確認処理を行い(ステップS103)、カメラ23が撮影した画像に対するポインティング誤差確認処理を行う(ステップS104)。   The determination unit 150 performs a pointing error confirmation process on the image captured by the camera 22 (step S103), and performs a pointing error confirmation process on the image captured by the camera 23 (step S104).

判定部150は、全カメラの画像に対するポインティング誤差が許容範囲内であるか否かを判定する(ステップS105)。判定部150は、いずれかのカメラの画像に対するポインティング誤差が許容範囲外である場合には(ステップS106,No)、冶具の検出を失敗した旨をディスプレイ170に出力し(ステップS107)、マーカ抽出部120を再起動する(ステップS108)。   The determination unit 150 determines whether or not the pointing error with respect to the images of all the cameras is within an allowable range (step S105). When the pointing error with respect to the image of any camera is outside the allowable range (No at Step S106), the determination unit 150 outputs that the jig detection has failed to the display 170 (Step S107), and extracts the marker. The unit 120 is restarted (step S108).

一方、判定部150は、全カメラの画像に対するポインティング誤差が許容範囲内である場合には(ステップS106,Yes)、カメラ20の視野に含まれる冶具の設置誤差確認処理を行い(ステップS109)、カメラ21の視野に含まれる冶具の設置誤差確認処理を行う(ステップS110)。   On the other hand, when the pointing error with respect to the images of all the cameras is within the allowable range (step S106, Yes), the determination unit 150 performs an installation error confirmation process for the jig included in the field of view of the camera 20 (step S109). An installation error confirmation process for the jig included in the field of view of the camera 21 is performed (step S110).

判定部150は、カメラ22の視野に含まれる冶具の設置誤差確認処理を行い(ステップS111)、カメラ23の視野に含まれる冶具の設置誤差確認処理を行う(ステップS112)。   The determination unit 150 performs an installation error confirmation process for the jig included in the visual field of the camera 22 (step S111), and performs an installation error confirmation process for the jig included in the visual field of the camera 23 (step S112).

判定部150は、全冶具の設置誤差が許容範囲内であるか否かを判定する(ステップS113)。判定部150は、いずれかのカメラの画像に対する冶具設置誤差が許容範囲外である場合には(ステップS114,No)、冶具の設置を失敗した旨をディスプレイ170に出力する(ステップS115)。一方、判定部150は、全冶具の設置誤差が許容範囲内である場合には(ステップS114,Yes)、キャリブレーションが成功した旨をディスプレイ170に出力する(ステップS116)。   The determination unit 150 determines whether or not the installation errors of all the jigs are within an allowable range (step S113). If the jig installation error with respect to any camera image is outside the allowable range (step S114, No), the determination unit 150 outputs to the display 170 that the jig installation has failed (step S115). On the other hand, when the installation error of all the jigs is within the allowable range (step S114, Yes), the determination unit 150 outputs that the calibration is successful to the display 170 (step S116).

次に、図20のステップS101〜104に示したポインティング誤差確認処理の処理手順について説明する。図21は、ポインティング誤差確認処理の処理手順を示すフローチャートである。   Next, the processing procedure of the pointing error confirmation process shown in steps S101 to S104 in FIG. 20 will be described. FIG. 21 is a flowchart showing the procedure of the pointing error confirmation process.

図21に示すように、判定部150は、カメラn(nは20、21、22または23)が撮影した画像に基づいて特定した冶具の画像座標を取得し(ステップS201)、カメラnのカメラ位置パラメータおよびカメラ角度パラメータを取得する(ステップS202)。判定部150は、画像座標を第1の俯瞰座標に変換する(ステップS203)。   As illustrated in FIG. 21, the determination unit 150 acquires the image coordinates of the jig specified based on the image captured by the camera n (n is 20, 21, 22, or 23) (step S201), and the camera of the camera n A position parameter and a camera angle parameter are acquired (step S202). The determination unit 150 converts the image coordinates to first overhead coordinates (step S203).

判定部150は、俯瞰画像上の第1の俯瞰座標に十字を描画しディスプレイ170に表示する(ステップS204)。判定部150は、冶具の十字と、描画した十字が一致した旨の情報を入力装置から取得したか否かを判定する(ステップS205)。   The determination unit 150 draws a cross at the first overhead view coordinates on the overhead view image and displays the cross on the display 170 (step S204). The determination unit 150 determines whether information indicating that the cross of the jig matches the drawn cross is acquired from the input device (step S205).

判定部150は、一致した旨の情報を取得した場合に(ステップS206,Yes)、カメラnに対する戻り値を「許容範囲内」に設定する(ステップS207)。一方、判定部150は、一致しない旨の情報を取得した場合に(ステップS206,No)、カメラnに対する戻り値を「許容範囲外」に設定する(ステップS208)。   When the determination unit 150 acquires information indicating that they match (Yes in Step S206), the determination unit 150 sets the return value for the camera n to “within an allowable range” (Step S207). On the other hand, when the determination unit 150 acquires information indicating that they do not match (No at Step S206), the determination unit 150 sets the return value for the camera n to “out of allowable range” (Step S208).

次に、図20のステップS109〜S112に示した冶具の設定位置確認処理の処理手順について説明する。図22は、冶具の設定位置確認処理の処理手順を示すフローチャートである。   Next, the processing procedure of the jig setting position confirmation process shown in steps S109 to S112 of FIG. 20 will be described. FIG. 22 is a flowchart illustrating a processing procedure of a jig setting position confirmation process.

図21に示すように、カメラn(nは20、21、22または23)が撮影した画像に含まれる冶具のマーカ位置パラメータを取得し(ステップS301)、マーカ位置パラメータを第2の俯瞰座標に変換する(ステップS302)。   As shown in FIG. 21, the marker position parameter of the jig included in the image captured by the camera n (n is 20, 21, 22, or 23) is acquired (step S301), and the marker position parameter is set to the second overhead coordinate. Conversion is performed (step S302).

判定部150は、俯瞰画像上の第2の俯瞰座標に十字を描画しディスプレイ170に表示する(ステップS303)。判定部150は、冶具の十字と、描画した十字が一致した旨の情報を入力装置から取得したか否かを判定する(ステップS304)。   The determination unit 150 draws a cross at the second overhead coordinate on the overhead image and displays it on the display 170 (step S303). The determination unit 150 determines whether information indicating that the cross of the jig matches the drawn cross is acquired from the input device (step S304).

判定部150は、一致した旨の情報を取得した場合に(ステップS305,Yes)、カメラnに対する戻り値を「許容範囲内」に設定する(ステップS306)。一方、判定部150は、一致しない旨の情報を取得した場合に(ステップS305,No)、カメラnに対する戻り値を「許容範囲外」に設定する(ステップS307)。   When the determination unit 150 acquires information indicating that they match (Yes in Step S305), the determination unit 150 sets the return value for the camera n to “within allowable range” (Step S306). On the other hand, when the determination unit 150 acquires information indicating that they do not match (No in step S305), the determination unit 150 sets the return value for the camera n to “out of allowable range” (step S307).

次に、ユーザが介在しない場合の判定部150の処理手順について説明する。図23は、ユーザが介在しない場合の判定部150の処理手順を示すフローチャートである。図23に示すように、判定部150は、カメラ20が撮影した画像に対するポインティング誤差判定処理を行い(ステップS401)、カメラ21が撮影した画像に対するポインティング誤差判定処理を行う(ステップS402)。   Next, a processing procedure of the determination unit 150 when no user is present will be described. FIG. 23 is a flowchart illustrating a processing procedure of the determination unit 150 when the user does not intervene. As illustrated in FIG. 23, the determination unit 150 performs a pointing error determination process on an image captured by the camera 20 (step S401), and performs a pointing error determination process on an image captured by the camera 21 (step S402).

判定部150は、カメラ22が撮影した画像に対するポインティング誤差判定処理を行い(ステップS403)、カメラ23が撮影した画像に対するポインティング誤差判定処理を行う(ステップS404)。   The determination unit 150 performs a pointing error determination process on the image captured by the camera 22 (step S403), and performs a pointing error determination process on the image captured by the camera 23 (step S404).

判定部150は、全カメラの画像に対するポインティング誤差が許容範囲内であるか否かを判定する(ステップS405)。判定部150は、いずれかのカメラの画像に対するポインティング誤差が許容範囲外である場合には(ステップS406,No)、冶具の検出を失敗した旨をディスプレイ170に出力し(ステップS407)、マーカ抽出部120を再起動する(ステップS408)。   The determination unit 150 determines whether or not the pointing error with respect to the images of all the cameras is within an allowable range (step S405). When the pointing error with respect to the image of any camera is outside the allowable range (No at Step S406), the determination unit 150 outputs that the jig detection has failed to the display 170 (Step S407), and extracts the marker. The unit 120 is restarted (step S408).

一方、判定部150は、全カメラの画像に対するポインティング誤差が許容範囲内である場合には(ステップS406,Yes)、カメラ20の視野に含まれる冶具の設置誤差判定処理を行い(ステップS409)、カメラ21の視野に含まれる冶具の設置誤差判定処理を行う(ステップS410)。   On the other hand, when the pointing error with respect to the images of all the cameras is within the allowable range (step S406, Yes), the determination unit 150 performs an installation error determination process for the jig included in the field of view of the camera 20 (step S409). An installation error determination process for the jig included in the field of view of the camera 21 is performed (step S410).

判定部150は、カメラ22の視野に含まれる冶具の設置誤差確認処理を行い(ステップS411)、カメラ23の視野に含まれる冶具の設置誤差確認処理を行う(ステップS412)。   The determination unit 150 performs an installation error confirmation process for the jig included in the visual field of the camera 22 (step S411), and performs an installation error confirmation process for the jig included in the visual field of the camera 23 (step S412).

判定部150は、全冶具の設置誤差が許容範囲内であるか否かを判定する(ステップS413)。判定部150は、いずれかのカメラの画像に対する冶具設置誤差が許容範囲外である場合には(ステップS414,No)、冶具の設置を失敗した旨をディスプレイ170に出力する(ステップS415)。一方、判定部150は、全冶具の設置誤差が許容範囲内である場合には(ステップS414,Yes)、キャリブレーションが成功した旨をディスプレイ170に出力する(ステップS416)。   The determination unit 150 determines whether or not the installation errors of all the jigs are within the allowable range (step S413). When the jig installation error with respect to any camera image is outside the allowable range (step S414, No), the determination unit 150 outputs to the display 170 that the jig installation has failed (step S415). On the other hand, when the installation error of all the jigs is within the allowable range (step S414, Yes), the determination unit 150 outputs that the calibration is successful to the display 170 (step S416).

次に、図23のステップS401〜404に示したポインティング誤差判定処理の処理手順について説明する。図24は、ポインティング誤差判定処理の処理手順を示すフローチャートである。   Next, the processing procedure of the pointing error determination process shown in steps S401 to S404 in FIG. 23 will be described. FIG. 24 is a flowchart illustrating a processing procedure of the pointing error determination process.

図24に示すように、判定部150は、カメラn(nは20、21、22または23)が撮影した画像に基づいて特定した冶具の画像座標を取得し(ステップS501)、カメラnのカメラ位置パラメータおよびカメラ角度パラメータを取得する(ステップS502)。   As shown in FIG. 24, the determination unit 150 acquires the image coordinates of the jig specified based on the image captured by the camera n (n is 20, 21, 22, or 23) (step S501), and the camera of the camera n A position parameter and a camera angle parameter are acquired (step S502).

判定部150は、画像座標を第1の俯瞰座標に変換し(ステップS503)、俯瞰画像から第3の俯瞰座標を抽出する(ステップS504)。判定部150は、第1の俯瞰座標と第3の俯瞰座標を比較して、第1の俯瞰座標と第3の俯瞰座標の差が閾値以下であるか否かを判定する(ステップS505)。   The determination unit 150 converts the image coordinates to the first overhead coordinates (step S503), and extracts the third overhead coordinates from the overhead image (step S504). The determination unit 150 compares the first overhead coordinate and the third overhead coordinate to determine whether or not the difference between the first overhead coordinate and the third overhead coordinate is equal to or less than a threshold value (step S505).

判定部150は、第1の俯瞰座標と第3の俯瞰座標の差が閾値以下の場合に(ステップS506,Yes)、カメラnに対する戻り値を「許容範囲内」に設定する(ステップ507)。一方、判定部150は、第1の俯瞰座標と第3の俯瞰座標の差が閾値よりも大きい場合に(ステップS506,No)、カメラnに対する戻り値を「許容範囲外」に設定する(ステップ508)。   When the difference between the first bird's-eye view coordinates and the third bird's-eye view coordinates is equal to or smaller than the threshold (step S506, Yes), the determination unit 150 sets the return value for the camera n to “within allowable range” (step 507). On the other hand, when the difference between the first bird's-eye view coordinates and the third bird's-eye view coordinates is larger than the threshold value (step S506, No), the determination unit 150 sets the return value for the camera n to “out of allowable range” (step S506). 508).

次に、図23のステップS409〜412に示した冶具の設置誤差判定処理の処理手順について説明する。図25は、冶具の設置誤差判定処理の処理手順を示すフローチャートである。   Next, the processing procedure of the jig installation error determination process shown in steps S409 to S412 of FIG. 23 will be described. FIG. 25 is a flowchart illustrating a processing procedure of jig installation error determination processing.

図25に示すように、判定部150は、カメラn(nは20、21、22または23)が撮影した画像に含まれる冶具のマーカ位置パラメータを取得し(ステップS601)、マーカ位置パラメータを第2の俯瞰座標に変換する(ステップS602)。   As shown in FIG. 25, the determination unit 150 acquires the marker position parameter of the jig included in the image captured by the camera n (n is 20, 21, 22, or 23) (step S601), and determines the marker position parameter. 2 is converted into overhead coordinates (step S602).

判定部150は、俯瞰画像から第3の俯瞰座標を抽出し(ステップS603)、第2の俯瞰座標と第3の俯瞰座標を比較して、第2の俯瞰座標と第3の俯瞰座標の差が閾値以下であるか否かを判定する(ステップS604)。   The determination unit 150 extracts the third overhead coordinate from the overhead image (step S603), compares the second overhead coordinate with the third overhead coordinate, and compares the second overhead coordinate with the third overhead coordinate. Is less than or equal to a threshold value (step S604).

判定部150は、第2の俯瞰座標と第3の俯瞰座標の差が閾値以下の場合に(ステップS605,Yes)、カメラnに対する戻り値を「許容範囲内」に設定する(ステップ606)。一方、判定部150は、第2の俯瞰座標と第3の俯瞰座標の差が閾値よりも大きい場合に(ステップS605,No)、カメラnに対する戻り値を「許容範囲外」に設定する(ステップ607)。   When the difference between the second bird's-eye view coordinates and the third bird's-eye view coordinates is equal to or smaller than the threshold value (step S605, Yes), the determination unit 150 sets the return value for the camera n to “within allowable range” (step 606). On the other hand, when the difference between the second bird's-eye view coordinates and the third bird's-eye view coordinates is larger than the threshold (No at Step S605), the determination unit 150 sets the return value for the camera n to “outside the allowable range” (Step S605). 607).

上述してきたように、本実施例1にかかるキャリブレーション装置100は、車両に設置されたカメラの視野に複数の冶具が含まれるように冶具が規定座標に配置された状態で、カメラが撮影した画像と、カメラのパラメータと、カメラ画像上の冶具の座標を取得する。キャリブレーション装置100は、画像とパラメータに基づいて、移動体の俯瞰画像を生成すると共に、カメラ画像上の冶具の座標と規定座標を、俯瞰画像上の座標に変換する。そして、キャリブレーション装置は、俯瞰画像上の冶具の座標と変換結果を基にして、パラメータが適切であるか否かを判定する。   As described above, the calibration apparatus 100 according to the first embodiment was photographed by the camera in a state where the jigs are arranged at the specified coordinates so that a plurality of jigs are included in the field of view of the camera installed in the vehicle. The image, camera parameters, and jig coordinates on the camera image are acquired. The calibration apparatus 100 generates a bird's-eye view image of the moving body based on the image and the parameters, and converts the coordinates of the jig and the specified coordinates on the camera image into coordinates on the bird's-eye view image. Then, the calibration device determines whether the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result.

このように、本実施例1にかかるキャリブレーション装置は、視野内の複数の治具を撮影したカメラの画像とパラメータを基にして俯瞰画像を生成し、俯瞰画像上の治具の座標と、実際の治具の座標等を比較して、パラメータが適切であるか否かを判定するので、キャリブレーション結果のパラメータが適切なものであるか否かを容易かつ早期に確認でき、ユーザにかかる負担を軽減させることが出来る。   As described above, the calibration apparatus according to the first embodiment generates an overhead image based on the image and parameters of the camera that captured the plurality of jigs in the field of view, and the coordinates of the jig on the overhead image, Compare the coordinates of the actual jig, etc., and determine whether the parameter is appropriate, so it is easy and early to check whether the parameter of the calibration result is appropriate, and it takes the user The burden can be reduced.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例1以外にも種々の異なる形態にて実施されてよいものである。そこで、以下では実施例2として本発明に含まれる他の実施例を説明する。   Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the first embodiment described above. Therefore, another embodiment included in the present invention will be described below as a second embodiment.

(1)冶具の撮影について
上記の実施例1では、カメラ20〜23が画像を撮影するタイミングについて言及していなかったが、キャリブレーションに必要なカメラ画像をすべて同時に撮影しなくてもよい。例えば、キャリブレーション装置100は、撮影範囲を分割して各冶具を撮影した後に各画像を合成することで、実施例1と同様にしてカメラ角度パラメータを算出しても良い。このように、撮影範囲を分割して各冶具を撮影することで、キャリブレーションを行う場合に必要となるスペースを更に狭くすることが出来る。なお、カメラの数は4個に限定されるものではない。
(1) Imaging of a jig In the first embodiment, the timing at which the cameras 20 to 23 capture images is not mentioned, but it is not necessary to simultaneously capture all the camera images necessary for calibration. For example, the calibration apparatus 100 may calculate the camera angle parameter in the same manner as in the first embodiment by synthesizing each image after dividing the photographing range and photographing each jig. In this way, by dividing the imaging range and imaging each jig, the space required for calibration can be further reduced. The number of cameras is not limited to four.

(2)システム構成等
本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
(2) System configuration, etc. Of the processes described in this embodiment, all or part of the processes described as being performed automatically can be performed manually, or can be performed manually. All or part of the described processing can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-mentioned document and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Each component of each illustrated device is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

例えば、図13にて説明したマーカ抽出部120、カメラ角度パラメータ推定部130、俯瞰画像作成部140、判定部150に対応する機能をサーバに持たせ、かかるサーバに、各カメラの撮影した画像や、パラメータ格納部160に格納された各データを送信することで、サーバがキャリブレーションの成功可否を判定し、判定結果をユーザの端末に通知する構成にしてもよい。あるいは、カメラ角度パラメータ推定部130、俯瞰画像作成部140、判定部150に対応する機能を移動端末等に持たせても良い。   For example, the server has functions corresponding to the marker extraction unit 120, the camera angle parameter estimation unit 130, the overhead image creation unit 140, and the determination unit 150 described in FIG. The server may determine whether the calibration is successful by transmitting each data stored in the parameter storage unit 160, and notify the user terminal of the determination result. Alternatively, the mobile terminal or the like may have functions corresponding to the camera angle parameter estimation unit 130, the overhead image creation unit 140, and the determination unit 150.

さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

図26は、実施例にかかるキャリブレーション装置100を構成するコンピュータのハードウェア構成を示す図である。図26に示すように、このコンピュータ(キャリブレーション装置)200は、入力装置201、モニタ202、カメラ203、RAM(Random Access Memory)204、ROM(Read Only Memory)205、他の装置と通信を行う通信制御装置206、記憶媒体からデータを読み取る媒体読取装置207、CPU(Central Processing Unit)208、HDD(Hard Disk Drive)209をバス210で接続する。コンピュータ200は、カメラ203以外にもカメラを有しているものとする。   FIG. 26 is a diagram illustrating a hardware configuration of a computer constituting the calibration apparatus 100 according to the embodiment. As shown in FIG. 26, the computer (calibration device) 200 communicates with an input device 201, a monitor 202, a camera 203, a RAM (Random Access Memory) 204, a ROM (Read Only Memory) 205, and other devices. A communication control device 206, a medium reading device 207 that reads data from a storage medium, a CPU (Central Processing Unit) 208, and an HDD (Hard Disk Drive) 209 are connected by a bus 210. Assume that the computer 200 has a camera in addition to the camera 203.

HDD209には、上記したキャリブレーション装置100の機能と同様の機能を発揮するキャリブレーションプログラム209bが記憶されている。CPU208がキャリブレーションプログラム209bを読み出して実行することにより、キャリブレーションプロセス208aが起動される。ここで、キャリブレーションプロセス208aは、図13に示した、マーカ抽出部120、カメラ角度パラメータ推定部130、俯瞰画像作成部140、判定部150に対応する。   The HDD 209 stores a calibration program 209b that exhibits the same function as that of the calibration apparatus 100 described above. When the CPU 208 reads out and executes the calibration program 209b, the calibration process 208a is activated. Here, the calibration process 208a corresponds to the marker extraction unit 120, the camera angle parameter estimation unit 130, the overhead image creation unit 140, and the determination unit 150 illustrated in FIG.

また、HDD209は、パラメータ格納部160に記憶される情報に対応する各種データ209aを記憶する。CPU208は、HDD209に格納された各種データ209aを読み出して、RAM204に格納し、RAM204に格納された各種データ204aおよびカメラ203に撮影された画像を用いて、キャリブレーションが成功したか否かを判定する。   The HDD 209 stores various data 209 a corresponding to information stored in the parameter storage unit 160. The CPU 208 reads out the various data 209a stored in the HDD 209, stores it in the RAM 204, and determines whether the calibration is successful using the various data 204a stored in the RAM 204 and an image taken by the camera 203. To do.

ところで、図26に示したキャリブレーションプログラム209bは、必ずしも最初からHDD209に記憶させておく必要はない。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などにキャリブレーションプログラム209bを記憶しておき、コンピュータがこれらからキャリブレーションプログラム209bを読み出して実行するようにしてもよい。   By the way, the calibration program 209b shown in FIG. 26 is not necessarily stored in the HDD 209 from the beginning. For example, a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into a computer, or a hard disk drive (HDD) provided inside or outside the computer. The calibration program 209b is stored in the “fixed physical medium” of the computer, and in addition to the “other computer (or server)” connected to the computer via a public line, the Internet, a LAN, a WAN, or the like. The computer may read and execute the calibration program 209b from these.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)コンピュータに、
移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータと、前記画像上の治具の座標を取得するステップと、
前記画像と前記パラメータに基づいて生成された前記移動体の俯瞰画像を取得するステップと、
前記画像上の治具の座標と前記規定座標を前記俯瞰画像上の座標に変換するステップと、
前記俯瞰画像上の治具の座標と、前記変換するステップの変換結果を基にして、前記パラメータが適切であるか否かを判定するステップと
を実行させることを特徴とする判定プログラム。
(Supplementary note 1)
An image captured by the camera, a parameter of the camera, and a jig on the image in a state where the jig is arranged at a predetermined coordinate so that a plurality of jigs are included in the field of view of the camera installed on the moving body Obtaining the coordinates of
Obtaining an overhead image of the moving body generated based on the image and the parameter;
Converting the coordinates of the jig on the image and the specified coordinates into coordinates on the overhead image;
A determination program that executes the step of determining whether or not the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result of the converting step.

(付記2)前記判定するステップは、前記パラメータが適切でないと判定した場合に、前記俯瞰画像上の治具の座標と前記変換するステップにて変換された前記規定座標の距離、および、前記俯瞰画像上の治具の座標と前記変換するステップにて変換された画像上の冶具の座標の距離を基にして、前記パラメータが適切ではない理由を通知することを特徴とする付記1に記載の判定プログラム。 (Additional remark 2) When the said determination step determines that the said parameter is not appropriate, the coordinate of the jig | tool on the said bird's-eye view image, the distance of the said specified coordinate converted by the said step of converting, and the said bird's-eye view The reason why the parameter is not appropriate is notified based on the distance between the coordinates of the jig on the image and the coordinates of the jig on the image converted in the converting step. Judgment program.

(付記3)コンピュータに、
移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータを取得するステップと、
前記画像と前記パラメータに基づいて生成された前記移動体の俯瞰画像を取得するステップと、
前記規定座標を前記俯瞰画像上の座標に変換するステップと、
前記俯瞰画像上の治具の座標と、前記変換するステップの変換結果を基にして、前記パラメータが適切であるか否かを判定するステップと
を実行させることを特徴とする判定プログラム。
(Appendix 3)
Obtaining an image captured by the camera and parameters of the camera in a state in which the jig is arranged at specified coordinates so that a plurality of jigs are included in the field of view of the camera installed on the moving body;
Obtaining an overhead image of the moving body generated based on the image and the parameter;
Converting the prescribed coordinates to coordinates on the overhead image;
A determination program that executes the step of determining whether or not the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result of the converting step.

(付記4)前記判定するステップは、前記パラメータが適切でないと判定した場合に、前記俯瞰画像上の治具の座標と前記変換するステップにて変換された前記規定座標の距離を基にして、前記パラメータが適切ではない理由を通知することを特徴とする付記3に記載の判定プログラム。 (Additional remark 4) When it is determined that the parameter is not appropriate, the determining step is based on the distance between the coordinates of the jig on the overhead image and the specified coordinates converted in the converting step. The determination program according to attachment 3, wherein the reason why the parameter is not appropriate is notified.

(付記5)コンピュータに、
移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータと、前記画像上の治具の座標を取得するステップと、
前記画像と前記パラメータに基づいて生成された前記移動体の俯瞰画像を取得するステップと、
前記画像上の治具の座標を、前記俯瞰画像上の座標に変換するステップと、
前記俯瞰画像上の治具の座標と、前記変換するステップの変換結果を基にして、前記パラメータが適切であるか否かを判定するステップと、
を実行させることを特徴とする判定プログラム。
(Appendix 5)
An image captured by the camera, a parameter of the camera, and a jig on the image in a state where the jig is arranged at a predetermined coordinate so that a plurality of jigs are included in the field of view of the camera installed on the moving body Obtaining the coordinates of
Obtaining an overhead image of the moving body generated based on the image and the parameter;
Converting the coordinates of the jig on the image into coordinates on the overhead image;
Determining whether the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result of the converting step;
The determination program characterized by making it execute.

(付記6)前記判定するステップは、前記パラメータが適切でないと判定した場合に、前記俯瞰画像上の治具の座標と前記変換ステップにて変換された前記画像上の冶具の座標の距離を基にして、前記パラメータが適切ではない理由を通知することを特徴とする付記5に記載の判定プログラム。 (Additional remark 6) When the said determination step determines that the said parameter is not appropriate, it is based on the distance of the coordinate of the jig on the said bird's-eye view image, and the coordinate of the jig on the said image converted at the said conversion step. The determination program according to appendix 5, wherein the reason why the parameter is not appropriate is notified.

(付記7)移動体に設置されたカメラの視野に複数の治具が含まれるように前記治具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記規定座標と、前記カメラの座標を基にして、前記カメラのパラメータを算出するパラメータ算出部と、
前記画像と前記パラメータに基づいて、前記移動体の俯瞰画像を生成する俯瞰画像生成部と、
前記画像上の治具の座標と前記規定座標を前記俯瞰画像上の座標に変換する変換部と、
前記俯瞰画像上の治具の位置と、前記画像上の冶具の座標と規定座標とを前記俯瞰画像上の座標にそれぞれ変換した変換結果を基にして、前記パラメータが適切であるか否かを判定する判定部と、
を有することを特徴とするキャリブレーション装置。
(Appendix 7) An image photographed by the camera in a state where the jig is arranged at a specified coordinate so that a plurality of jigs are included in the field of view of the camera installed on the moving body, the specified coordinate, A parameter calculation unit for calculating the parameters of the camera based on the coordinates of the camera;
Based on the image and the parameter, an overhead image generation unit that generates an overhead image of the moving body;
A conversion unit that converts the coordinates of the jig on the image and the specified coordinates into coordinates on the overhead image;
Whether the parameter is appropriate based on the conversion result obtained by converting the position of the jig on the overhead image, the coordinates of the jig on the image, and the specified coordinates into the coordinates on the overhead image, respectively. A determination unit for determining;
A calibration apparatus comprising:

(付記8)判定装置が、
移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータと、前記画像上の治具の座標を取得する取得ステップと、
前記画像と前記パラメータに基づいて、前記移動体の俯瞰画像を生成する俯瞰画像生成ステップと、
前記画像上の治具の座標と前記規定座標を前記俯瞰画像上の座標に変換する変換ステップと、
前記俯瞰画像上の治具の座標と、前記変換ステップの変換結果を基にして、前記パラメータが適切であるか否かを判定する判定ステップと、
を含んだことを特徴とする判定方法。
(Supplementary note 8)
An image photographed by the camera, parameters of the camera, and a jig on the image in a state where the jig is arranged at a predetermined coordinate so that a plurality of jigs are included in the field of view of the camera installed on the moving body An acquisition step of acquiring the coordinates of
Based on the image and the parameter, an overhead image generation step of generating an overhead image of the moving body;
A conversion step of converting the coordinates of the jig on the image and the specified coordinates into coordinates on the overhead image;
A determination step of determining whether or not the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result of the conversion step;
The determination method characterized by including.

(付記9)移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータと、前記画像上の治具の座標と、前記画像と前記パラメータに基づいて生成された前記移動体の俯瞰画像を取得する取得部と、
前記画像上の治具の座標と前記規定座標を前記俯瞰画像上の座標に変換する変換部と、
前記俯瞰画像上の治具の座標と、前記変換するステップの変換結果を基にして、前記パラメータが適切であるか否かを判定する判定部と
を有することを特徴とする判定装置。
(Additional remark 9) The image which the said camera image | photographed in the state which has arrange | positioned the said jig | tool at the predetermined coordinate so that a several jig may be included in the visual field of the camera installed in the mobile body, the parameter of the said camera, and the said image An acquisition unit for acquiring coordinates of the upper jig, and an overhead image of the moving body generated based on the image and the parameter;
A conversion unit that converts the coordinates of the jig on the image and the specified coordinates into coordinates on the overhead image;
A determination apparatus comprising: a determination unit configured to determine whether or not the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result of the converting step.

(付記10)移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータと、前記画像と前記パラメータに基づいて生成された前記移動体の俯瞰画像を取得する取得部と、
前記規定座標を前記俯瞰画像上の座標に変換する変換部と、
前記俯瞰画像上の治具の座標と、前記変換するステップの変換結果を基にして、前記パラメータが適切であるか否かを判定する判定部と
を有することを特徴とする判定装置。
(Additional remark 10) The image which the said camera image | photographed in the state which has arrange | positioned the said jig | tool at a predetermined coordinate so that a some jig | tool may be included in the visual field of the camera installed in the moving body, the parameter of the said camera, and the said image And an acquisition unit for acquiring an overhead image of the moving object generated based on the parameters,
A conversion unit that converts the specified coordinates into coordinates on the overhead image;
A determination apparatus comprising: a determination unit configured to determine whether or not the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result of the converting step.

(付記11)移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータと、前記画像上の治具の座標と、前記画像と前記パラメータに基づいて生成された前記移動体の俯瞰画像を取得する取得部と、
前記画像上の治具の座標を、前記俯瞰画像上の座標に変換する変換部と、
前記俯瞰画像上の治具の座標と、前記変換するステップの変換結果を基にして、前記パラメータが適切であるか否かを判定する判定部と、
を有することを特徴とする判定装置。
(Additional remark 11) The image which the said camera image | photographed in the state which has arrange | positioned the said jig | tool at a predetermined coordinate so that a several jig | tool may be included in the visual field of the camera installed in the mobile body, the parameter of the said camera, and the said image An acquisition unit for acquiring coordinates of the upper jig, and an overhead image of the moving body generated based on the image and the parameter;
A converter that converts the coordinates of the jig on the image into coordinates on the overhead image;
A determination unit that determines whether or not the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result of the converting step;
The determination apparatus characterized by having.

10,11,12,13 冶具
20,21,22,23 カメラ
100 キャリブレーション装置
110 フレームバッファ
110a,110b マーカ画像格納部
120 マーカ抽出部
130 カメラ角度パラメータ推定部
140 俯瞰画像作成部
150 判定部
160 パラメータ格納部
161 指定位置パラメータ
162 マーカ位置パラメータ
163 カメラ位置パラメータ
164 カメラ角度パラメータ
170 ディスプレイ
200 コンピュータ
201 入力装置
202 モニタ
203 カメラ
204 RAM
204a 各種データ
205 ROM
206 通信制御装置
207 媒体読取装置
208 CPU
208a キャリブレーションプロセス
209 HDD
209a 各種データ
209b キャリブレーションプログラム
210 バス
10, 11, 12, 13 Jig 20, 21, 22, 23 Camera 100 Calibration device 110 Frame buffer 110a, 110b Marker image storage unit 120 Marker extraction unit 130 Camera angle parameter estimation unit 140 Overhead image creation unit 150 Determination unit 160 Parameter Storage unit 161 Specified position parameter 162 Marker position parameter 163 Camera position parameter 164 Camera angle parameter 170 Display 200 Computer 201 Input device 202 Monitor 203 Camera 204 RAM
204a Various data 205 ROM
206 Communication control device 207 Medium reading device 208 CPU
208a Calibration process 209 HDD
209a Various data 209b Calibration program 210 Bus

Claims (5)

コンピュータに、
移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータと、前記画像上の治具の座標を取得するステップと、
前記画像と前記パラメータに基づいて生成された前記移動体の俯瞰画像を取得するステップと、
前記画像上の治具の座標と前記規定座標を前記俯瞰画像上の座標に変換するステップと、
前記俯瞰画像上の治具の座標と、前記変換するステップの変換結果を基にして、前記パラメータが適切であるか否かを判定するステップと
を実行させることを特徴とする判定プログラム。
On the computer,
An image captured by the camera, a parameter of the camera, and a jig on the image in a state where the jig is arranged at a predetermined coordinate so that a plurality of jigs are included in the field of view of the camera installed on the moving body Obtaining the coordinates of
Obtaining an overhead image of the moving body generated based on the image and the parameter;
Converting the coordinates of the jig on the image and the specified coordinates into coordinates on the overhead image;
A determination program that executes the step of determining whether or not the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result of the converting step.
前記判定するステップは、前記パラメータが適切でないと判定した場合に、前記俯瞰画像上の治具の座標と前記変換するステップにて変換された前記規定座標の距離、および、前記俯瞰画像上の治具の座標と前記変換するステップにて変換された画像上の冶具の座標の距離を基にして、前記パラメータが適切ではない理由を通知することを特徴とする請求項1に記載の判定プログラム。   In the determining step, when it is determined that the parameter is not appropriate, the distance between the coordinates of the jig on the overhead image and the specified coordinate converted in the converting step, and the correction on the overhead image. The determination program according to claim 1, wherein a reason why the parameter is not appropriate is notified based on a distance between the coordinates of the tool and the coordinates of the jig on the image converted in the converting step. コンピュータに、
移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータを取得するステップと、
前記画像と前記パラメータに基づいて生成された前記移動体の俯瞰画像を取得するステップと、
前記規定座標を前記俯瞰画像上の座標に変換するステップと、
前記俯瞰画像上の治具の座標と、前記変換するステップの変換結果を基にして、前記パラメータが適切であるか否かを判定するステップと
を実行させることを特徴とする判定プログラム。
On the computer,
Obtaining an image captured by the camera and parameters of the camera in a state in which the jig is arranged at specified coordinates so that a plurality of jigs are included in the field of view of the camera installed on the moving body;
Obtaining an overhead image of the moving body generated based on the image and the parameter;
Converting the prescribed coordinates to coordinates on the overhead image;
A determination program that executes the step of determining whether or not the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result of the converting step.
コンピュータに、
移動体に設置されたカメラの視野に複数の冶具が含まれるように前記冶具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記カメラのパラメータと、前記画像上の治具の座標を取得するステップと、
前記画像と前記パラメータに基づいて生成された前記移動体の俯瞰画像を取得するステップと、
前記画像上の治具の座標を、前記俯瞰画像上の座標に変換するステップと、
前記俯瞰画像上の治具の座標と、前記変換するステップの変換結果を基にして、前記パラメータが適切であるか否かを判定するステップと、
を実行させることを特徴とする判定プログラム。
On the computer,
An image captured by the camera, a parameter of the camera, and a jig on the image in a state where the jig is arranged at a predetermined coordinate so that a plurality of jigs are included in the field of view of the camera installed on the moving body Obtaining the coordinates of
Obtaining an overhead image of the moving body generated based on the image and the parameter;
Converting the coordinates of the jig on the image into coordinates on the overhead image;
Determining whether the parameter is appropriate based on the coordinates of the jig on the overhead image and the conversion result of the converting step;
The determination program characterized by making it execute.
移動体に設置されたカメラの視野に複数の治具が含まれるように前記治具が規定座標に配置された状態で、前記カメラが撮影した画像と、前記規定座標と、前記カメラの座標を基にして、前記カメラのパラメータを算出するパラメータ算出部と、
前記画像と前記パラメータに基づいて、前記移動体の俯瞰画像を生成する俯瞰画像生成部と、
前記画像上の治具の座標と前記規定座標を前記俯瞰画像上の座標に変換する変換部と、
前記俯瞰画像上の治具の位置と、前記画像上の冶具の座標と規定座標とを前記俯瞰画像上の座標にそれぞれ変換した変換結果を基にして、前記パラメータが適切であるか否かを判定する判定部と、
を有することを特徴とするキャリブレーション装置。
An image captured by the camera, the specified coordinates, and the coordinates of the camera in a state where the jig is arranged at specified coordinates so that a plurality of jigs are included in the field of view of the camera installed on the moving body. Based on the parameter calculation unit for calculating the parameters of the camera,
Based on the image and the parameter, an overhead image generation unit that generates an overhead image of the moving body;
A conversion unit that converts the coordinates of the jig on the image and the specified coordinates into coordinates on the overhead image;
Whether the parameter is appropriate based on the conversion result obtained by converting the position of the jig on the overhead image, the coordinates of the jig on the image, and the specified coordinates into the coordinates on the overhead image, respectively. A determination unit for determining;
A calibration apparatus comprising:
JP2009108280A 2009-04-27 2009-04-27 Judgment program and calibration device Expired - Fee Related JP5369873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009108280A JP5369873B2 (en) 2009-04-27 2009-04-27 Judgment program and calibration device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009108280A JP5369873B2 (en) 2009-04-27 2009-04-27 Judgment program and calibration device

Publications (2)

Publication Number Publication Date
JP2010258897A true JP2010258897A (en) 2010-11-11
JP5369873B2 JP5369873B2 (en) 2013-12-18

Family

ID=43319287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009108280A Expired - Fee Related JP5369873B2 (en) 2009-04-27 2009-04-27 Judgment program and calibration device

Country Status (1)

Country Link
JP (1) JP5369873B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013030932A1 (en) * 2011-08-29 2013-03-07 パイオニア株式会社 Navigation device, image display device, server, adjustment device, and forward image display method
CN103426160A (en) * 2012-05-25 2013-12-04 富士通天株式会社 Data deriving apparatus and data deriving method
US20150254853A1 (en) * 2012-10-02 2015-09-10 Denso Corporation Calibration method and calibration device
CN105577988A (en) * 2014-10-30 2016-05-11 现代摩比斯株式会社 Method and apparatus for calibration of vehicle video
WO2020138120A1 (en) * 2018-12-26 2020-07-02 日本電気株式会社 Information processing device, information processing method, and recording medium
JP7174389B1 (en) 2022-02-18 2022-11-17 株式会社ヒューマンサポートテクノロジー Object position estimation display device, method and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020121882A1 (en) * 2018-12-13 2020-06-18 ソニー株式会社 Control device, control method, and control program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131250A (en) * 2006-11-20 2008-06-05 Aisin Seiki Co Ltd Correcting device for on-board camera and production method for vehicle using same correcting device
JP2008193188A (en) * 2007-02-01 2008-08-21 Sanyo Electric Co Ltd Camera calibration device and method, and vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131250A (en) * 2006-11-20 2008-06-05 Aisin Seiki Co Ltd Correcting device for on-board camera and production method for vehicle using same correcting device
JP2008193188A (en) * 2007-02-01 2008-08-21 Sanyo Electric Co Ltd Camera calibration device and method, and vehicle

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013030932A1 (en) * 2011-08-29 2013-03-07 パイオニア株式会社 Navigation device, image display device, server, adjustment device, and forward image display method
CN103426160A (en) * 2012-05-25 2013-12-04 富士通天株式会社 Data deriving apparatus and data deriving method
US20150254853A1 (en) * 2012-10-02 2015-09-10 Denso Corporation Calibration method and calibration device
US10171802B2 (en) * 2012-10-02 2019-01-01 Denso Corporation Calibration method and calibration device
CN105577988A (en) * 2014-10-30 2016-05-11 现代摩比斯株式会社 Method and apparatus for calibration of vehicle video
WO2020138120A1 (en) * 2018-12-26 2020-07-02 日本電気株式会社 Information processing device, information processing method, and recording medium
JPWO2020138120A1 (en) * 2018-12-26 2021-10-28 日本電気株式会社 Information processing equipment, information processing methods and programs
JP7248039B2 (en) 2018-12-26 2023-03-29 日本電気株式会社 Information processing device, information processing method and program
JP7174389B1 (en) 2022-02-18 2022-11-17 株式会社ヒューマンサポートテクノロジー Object position estimation display device, method and program
JP2023120758A (en) * 2022-02-18 2023-08-30 株式会社ヒューマンサポートテクノロジー Object position estimation display device, method, and program

Also Published As

Publication number Publication date
JP5369873B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
US20210000551A1 (en) Tracking system and tracking method using same
JP5369873B2 (en) Judgment program and calibration device
JP5503578B2 (en) Object detection apparatus and object detection method
US10438412B2 (en) Techniques to facilitate accurate real and virtual object positioning in displayed scenes
JP2016029564A (en) Target detection method and target detector
WO2010101227A1 (en) Device for creating information for positional estimation of matter, method for creating information for positional estimation of matter, and program
JP2013042411A (en) Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon
JP2009529824A (en) CMOS stereo camera for 3D image acquisition
JP2019092076A (en) Image processing system, image processing method, and program
US11928805B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
JP2012209895A (en) Stereo image calibration method, stereo image calibration device and stereo image calibration computer program
JP2015072577A (en) Moving object detector
JP2006226965A (en) Image processing system, computer program and image processing method
JP2006234703A (en) Image processing device, three-dimensional measuring device, and program for image processing device
JPWO2017187694A1 (en) Attention area image generation device
JP2021106025A5 (en)
JP6922348B2 (en) Information processing equipment, methods, and programs
JP2009276233A (en) Parameter calculating apparatus, parameter calculating system and program
CN108074250B (en) Matching cost calculation method and device
JP2014215755A (en) Image processing system, image processing apparatus, and image processing method
JP2007025863A (en) Photographing system, photographing method, and image processing program
JP2010217984A (en) Image detector and image detection method
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP5870266B2 (en) Calibration apparatus and calibration method
US20220076399A1 (en) Photographing guide device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees