JP2013005032A - On-vehicle camera posture detection device - Google Patents

On-vehicle camera posture detection device Download PDF

Info

Publication number
JP2013005032A
JP2013005032A JP2011131337A JP2011131337A JP2013005032A JP 2013005032 A JP2013005032 A JP 2013005032A JP 2011131337 A JP2011131337 A JP 2011131337A JP 2011131337 A JP2011131337 A JP 2011131337A JP 2013005032 A JP2013005032 A JP 2013005032A
Authority
JP
Japan
Prior art keywords
camera
movement
vehicle
posture
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011131337A
Other languages
Japanese (ja)
Inventor
Kazuhiro Hiruta
和弘 蛭田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2011131337A priority Critical patent/JP2013005032A/en
Publication of JP2013005032A publication Critical patent/JP2013005032A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an on-vehicle camera posture detection device capable of accurately detecting the posture of a camera.SOLUTION: An on-vehicle camera posture detection device includes: a pre-movement image storage section 20 for storing a pre-movement image of a calibration sheet 200 imaged by a camera 10; a pre-movement camera posture estimation section 24 for estimating the posture of the camera 10 on the basis of the pre-movement image; a post-movement image storage section 22 for storing a post-movement image imaged after moving a vehicle linearly by a prescribed distance; a post-movement camera posture estimation section 26 for estimating the posture of the camera 10 on the basis of the post-movement image; a deviation amount calculation section 32 for calculating a deviation amount of the calibration sheet on the basis of the two estimation results; a camera posture determination section 34 for determining the posture of the camera 10 on the basis of the camera 10 posture estimation value and the deviation amount of the calibration sheet; and a linear movement determination section 46 for determining whether the movement of the vehicle is linear or not.

Description

本発明は、車両に搭載されて周辺画像を撮影するカメラの取り付け角度等を検出する車載カメラ姿勢検出装置に関する。   The present invention relates to an in-vehicle camera attitude detection device that detects an attachment angle or the like of a camera that is mounted on a vehicle and captures a peripheral image.

車両に搭載されたカメラで撮影した画像に基づいてこの画像に含まれる被写体の位置や大きさを正確に検出する場合や、複数のカメラで隣接した領域を撮影し、得られた画像を領域が連続するように合成する場合などでは、カメラの正確な設置位置および角度を知る必要がある。   When accurately detecting the position and size of the subject included in this image based on the image taken by the camera mounted on the vehicle, or by shooting adjacent areas with multiple cameras, In the case of continuous composition, it is necessary to know the exact installation position and angle of the camera.

一般に、カメラの設置位置や角度は、カメラを含むシステム全体を設計する際にあらかじめ決められることが多いが、実際には取り付け誤差が含まれるため、取り付け後にキャリブレーションを行って正確な設置位置や角度を検出することが行われている。例えば、従来から、車両近傍の所定位置に、複数の校正指標が含まれるキャリブレーションパターンが印刷されたキャリブレーションシートを配置し、このキャリブレーションシートをカメラで撮影した結果得られた画像を用いてカメラの設置位置や角度を検出するようにしたカメラ取り付け角度算出方法が知られている(例えば、特許文献1参照。)。   In general, the installation position and angle of a camera are often determined in advance when designing the entire system including the camera, but in practice, since installation errors are included, calibration is performed after installation to ensure the correct installation position and angle. An angle is detected. For example, conventionally, a calibration sheet on which a calibration pattern including a plurality of calibration indices is printed is arranged at a predetermined position near the vehicle, and an image obtained as a result of photographing the calibration sheet with a camera is used. A camera attachment angle calculation method that detects the installation position and angle of a camera is known (for example, see Patent Document 1).

特開2010−183265号公報(第2−11頁、図1−23)JP 2010-183265 A (page 2-11, FIG. 1-23)

ところで、上述した従来手法では、キャリブレーションシートが所定位置に正確に配置されることが前提となっており、キャリブレーションシートの設置位置にずれがあると、カメラの姿勢(位置および角度)を正確に検出することができないという問題があった。例えば、車両後方であって、設置位置がリアバンパーの端部に接するようにキャリブレーションシートを配置し、これを車両後方に設置されたカメラで撮影するものとする。このようにキャリブレーションシートの位置が指定された場合であっても、リアバンパーは地面から離れた位置にあるため、その端部にキャリブレーションシートの位置を合わせることは難しい。キャリブレーションの左右位置についても同様であり、車両の中心とキャリブレーションシートの中心を正確に合わせることも容易ではない。   By the way, in the conventional method described above, it is assumed that the calibration sheet is accurately arranged at a predetermined position. If there is a deviation in the installation position of the calibration sheet, the posture (position and angle) of the camera is accurately determined. There was a problem that it could not be detected. For example, it is assumed that the calibration sheet is arranged behind the vehicle so that the installation position is in contact with the end of the rear bumper, and this is photographed with a camera installed behind the vehicle. Even when the position of the calibration sheet is designated in this way, the rear bumper is located away from the ground, and it is difficult to align the position of the calibration sheet with the end portion. The same applies to the left and right positions of calibration, and it is not easy to accurately align the center of the vehicle and the center of the calibration sheet.

本発明は、このような点に鑑みて創作されたものであり、その目的は、カメラの姿勢を正確に検出することができる車載カメラ姿勢検出装置を提供することにある。   The present invention has been created in view of the above points, and an object thereof is to provide an in-vehicle camera posture detection device capable of accurately detecting the posture of a camera.

上述した課題を解決するために、本発明の車載カメラ姿勢検出装置は、車両に搭載されたカメラで車両周辺に配置されたキャリブレーションシートに含まれる複数の校正指標を撮影し、得られた画像に基づいてカメラの姿勢を検出する車載カメラ姿勢検出装置であって、カメラで撮影されたキャリブレーションシートの画像を移動前画像として格納する移動前画像格納手段と、移動前画像格納手段に格納された移動前画像に基づいてカメラの姿勢を推定する第1の姿勢推定手段と、車両を直線状に所定距離移動させた後にカメラで撮影されたキャリブレーションシートの画像を移動後画像として格納する移動後画像格納手段と、移動後画像格納手段に格納された移動後画像に基づいてカメラの姿勢を推定する第2の姿勢推定手段と、第1および第2の姿勢推定手段による推定結果に基づいてキャリブレーションシートの所定位置からのずれ量を算出するシートずれ量算出手段と、第1および第2のカメラ姿勢推定手段の少なくとも一方によって推定された姿勢推定値と、シートずれ量算出手段によって算出されたずれ量とに基づいて、カメラの姿勢を決定するカメラ姿勢決定手段と、移動前画像を取得してから移動後画像を取得するまでの車両の移動が直線状になされたか否かを判定する直線移動判定手段とを備えている。   In order to solve the above-described problem, an on-vehicle camera posture detection device of the present invention photographs a plurality of calibration indices included in a calibration sheet arranged around a vehicle with a camera mounted on the vehicle, and obtained images Is a vehicle-mounted camera posture detection device that detects the posture of a camera based on the pre-movement image storage unit that stores an image of a calibration sheet photographed by the camera as a pre-movement image, and is stored in the pre-movement image storage unit. A first posture estimating means for estimating the posture of the camera based on the pre-movement image, and a movement for storing an image of a calibration sheet photographed by the camera after moving the vehicle in a straight line as a post-movement image Post-image storage means; second posture estimation means for estimating the posture of the camera based on the post-movement image stored in the post-movement image storage means; Posture estimated by at least one of sheet deviation amount calculating means for calculating the deviation amount of the calibration sheet from a predetermined position based on the estimation result by the second posture estimating means, and first and second camera posture estimating means. Based on the estimated value and the amount of deviation calculated by the sheet deviation amount calculation means, camera posture determination means for determining the posture of the camera, and the vehicle from the acquisition of the pre-movement image to the acquisition of the post-movement image Linear movement determination means for determining whether or not the movement has been made linear.

車両を移動させる前後の画像に基づいてキャリブレーションシートの所定位置(設計位置)からのずれ量を算出しているため、このキャリブレーションシートのずれによる影響を取り除くことができ、カメラの姿勢を正確に検出することが可能となる。また、車両の移動を直線状とすることにより、移動の前後でキャリブレーションシートを撮影した際に、キャリブレーションシートの回転方向のずれを一定にすることができ、算出するパラメータの数を減らすことができるため、処理の簡略化が可能となる。さらに、車両の移動が直線状であるか否かを判定しているため、直線状でなかった場合に車両の移動をやりなおすことができ、カメラ姿勢の検出に含まれる誤差の拡大を未然に防ぐことができる。   Since the amount of deviation of the calibration sheet from the specified position (design position) is calculated based on the images before and after the vehicle is moved, the effects of the deviation of the calibration sheet can be removed, and the camera posture can be accurately determined. Can be detected. In addition, by making the movement of the vehicle linear, when the calibration sheet is photographed before and after the movement, the deviation in the rotation direction of the calibration sheet can be made constant, and the number of parameters to be calculated is reduced. Therefore, the process can be simplified. Furthermore, since it is determined whether or not the movement of the vehicle is a straight line, the movement of the vehicle can be redone if it is not a straight line, thereby preventing an increase in errors included in the detection of the camera posture. be able to.

また、上述したカメラによるレンズを通した撮影によって、中央に対して周辺が歪んだ画像が得られ、車両の移動の前後および中間位置に対応する複数箇所においてカメラの撮影によって得られた複数の画像に対して歪み補正を行う歪み補正手段をさらに備え、直線移動判定手段は、歪み補正手段によって歪みが除去された後の複数の画像に基づいて、車両の移動が直線状になされたか否かを判定することが望ましい。具体的には、上述した直線移動判定手段は、歪み除去後の複数の画像について、キャリブレーションシートの同一箇所に対応する特徴点を抽出し、これら複数の画像に含まれる複数の特徴点のそれぞれが直線状に配置されている場合に、車両の移動が直線状になされたものと判定することが望ましい。歪み補正を行って歪みを除去した画像を用いることにより、車両の移動に連動する画像内の被写体(特徴点)の移動が直線状になるため、車両の移動が直線状になされたか否かの判定が容易となる。   In addition, a plurality of images obtained by photographing with the camera at a plurality of positions corresponding to the front and rear and middle positions of the movement of the vehicle are obtained by photographing through the lens by the camera described above. And a straight line movement determining means for determining whether or not the vehicle has been moved linearly based on a plurality of images after the distortion has been removed by the distortion correcting means. It is desirable to judge. Specifically, the above-described linear movement determination unit extracts feature points corresponding to the same part of the calibration sheet for a plurality of images after distortion removal, and each of the plurality of feature points included in the plurality of images. It is desirable to determine that the movement of the vehicle has been made linear. By using distortion corrected images to remove distortion, the movement of the subject (feature point) in the image linked to the movement of the vehicle becomes linear. Judgment becomes easy.

また、上述した歪み補正手段によって歪み補正が行われた画像を、複数の特徴点とともに表示装置に表示する表示処理手段をさらに備えることが望ましい。特に、上述した表示処理手段によって表示装置に表示される画像には、複数の特徴点の中の両端を通る直線状の補助線が含まれていることが望ましい。これにより、車両を移動する運転者自身が画像を見ながら車両の移動が直線状か否かを簡単に確認することができる。   In addition, it is desirable to further include a display processing unit that displays an image on which distortion correction has been performed by the above-described distortion correction unit together with a plurality of feature points on a display device. In particular, it is desirable that the image displayed on the display device by the display processing means described above includes a linear auxiliary line that passes through both ends of the plurality of feature points. As a result, the driver who moves the vehicle can easily check whether the movement of the vehicle is linear while viewing the image.

また、上述した直線移動判定手段は、車両の移動が直線状になされなかった旨の判定を行ったときに、車両の運転者に対して通知を行うことが望ましい。これにより、車両の移動が直線状でないことを確実に車両の運転者にわからせることができ、カメラ姿勢の決定に関する一連の動作のやり直しを促すことができる。   In addition, it is desirable that the above-described linear movement determination means notifies the vehicle driver when it is determined that the vehicle has not been moved linearly. Accordingly, the driver of the vehicle can be surely notified that the movement of the vehicle is not linear, and a series of operations relating to the determination of the camera posture can be urged to be performed again.

一実施形態の車載カメラ姿勢検出装置の構成を示す図である。It is a figure which shows the structure of the vehicle-mounted camera attitude | position detection apparatus of one Embodiment. カメラの具体的な設置例を示す図である。It is a figure which shows the specific example of installation of a camera. キャリブレーションシートの具体例を示す図である。It is a figure which shows the specific example of a calibration sheet | seat. カメラの姿勢を決定する概略的な動作手順を示す流れ図である。It is a flowchart which shows the rough operation | movement procedure which determines the attitude | position of a camera. 3つのずれ量の関係を示す図である。It is a figure which shows the relationship of three deviation | shift amounts. 移動前カメラ姿勢推定部の詳細構成を示す図である。It is a figure which shows the detailed structure of the camera attitude | position estimation part before a movement. 座標変換の説明図である。It is explanatory drawing of coordinate transformation. 車両の移動と並行して行われる直線判定の動作手順を示す流れ図である。It is a flowchart which shows the operation | movement procedure of the straight line determination performed in parallel with the movement of a vehicle. 歪み補正前後の画像の表示例を示す図である。It is a figure which shows the example of a display of the image before and behind distortion correction.

以下、本発明を適用した一実施形態の車載カメラ姿勢検出装置について、図面を参照しながら説明する。   Hereinafter, an in-vehicle camera attitude detection device according to an embodiment to which the present invention is applied will be described with reference to the drawings.

図1は、一実施形態の車載カメラ姿勢検出装置の構成を示す図である。図1に示すように、本実施形態の車載カメラ姿勢検出装置100は、カメラ10、画像取込部12、画像メモリ14、移動前画像格納部20、中間画像格納部21、移動後画像格納部22、移動前カメラ姿勢推定部24、移動後カメラ姿勢推定部26、移動距離算出部30、ずれ量算出部32、カメラ姿勢決定部34、表示装置40、表示処理部42、歪み補正部44、直線移動判定部46、操作部50を含んで構成されている。なお、この車載カメラ姿勢検出装置100によって検出されるカメラ姿勢は、カメラを用いた他の装置においてその検出結果を用いるためのものであり、車載カメラ姿勢検出装置100の構成を他の装置に含ませるようにしてもよい。   FIG. 1 is a diagram illustrating a configuration of an in-vehicle camera attitude detection device according to an embodiment. As shown in FIG. 1, the on-vehicle camera posture detection device 100 of this embodiment includes a camera 10, an image capture unit 12, an image memory 14, a pre-movement image storage unit 20, an intermediate image storage unit 21, and a post-movement image storage unit. 22, pre-movement camera posture estimation unit 24, post-movement camera posture estimation unit 26, movement distance calculation unit 30, displacement amount calculation unit 32, camera posture determination unit 34, display device 40, display processing unit 42, distortion correction unit 44, The linear movement determination unit 46 and the operation unit 50 are included. The camera posture detected by the vehicle-mounted camera posture detection device 100 is for using the detection result in another device using the camera, and the configuration of the vehicle-mounted camera posture detection device 100 is included in the other device. You may make it let.

カメラ10は、車両後方の所定位置に所定の角度で取り付けられ、魚眼レンズや広角レンズを通して車両後方を撮影する。魚眼レンズ等を等して被写体を撮影することにより、中央に対して周辺が歪んだ画像が得られる。図2は、カメラ10の具体的な設置例を示す図である。図2に示す例では、カメラ10は、リアバンパーの中央に、水平から下向きに30°の角度で取り付けられている。本実施形態では、このカメラ10の撮影範囲に含まれるように、車両後方の地面上にキャリブレーションシート200が配置されている。   The camera 10 is attached to a predetermined position at the rear of the vehicle at a predetermined angle, and images the rear of the vehicle through a fisheye lens or a wide-angle lens. By photographing a subject using a fisheye lens or the like, an image having a distorted periphery with respect to the center can be obtained. FIG. 2 is a diagram illustrating a specific installation example of the camera 10. In the example shown in FIG. 2, the camera 10 is attached to the center of the rear bumper at an angle of 30 ° from the horizontal to the downward. In the present embodiment, the calibration sheet 200 is arranged on the ground behind the vehicle so as to be included in the shooting range of the camera 10.

図3は、キャリブレーションシート200の具体例を示す図である。図3に示すキャリブレーションシート200は、校正指標(キャリブレーションマーク)としての12個の小黒丸210、6個の大白丸220を含んでいる。大白丸220は、車両側から見て2列に、各列に3個が含まれるように配置されている。また、車両から遠い側の列を構成する3個の大白丸220のそれぞれには、2行2列に配置された4個の小黒丸210が含まれている。これらの小黒丸210や大白丸220は、撮影により取り込まれた画像に基づいて識別され、それぞれの中心(円心)座標が求められて各種の演算に用いられる。   FIG. 3 is a diagram illustrating a specific example of the calibration sheet 200. A calibration sheet 200 shown in FIG. 3 includes twelve small black circles 210 and six large white circles 220 as calibration indices (calibration marks). The large white circles 220 are arranged in two rows as seen from the vehicle side so that three are included in each row. Further, each of the three large white circles 220 constituting the column far from the vehicle includes four small black circles 210 arranged in two rows and two columns. These small black circles 210 and large white circles 220 are identified on the basis of an image captured by photographing, and the respective center (circular center) coordinates are obtained and used for various calculations.

画像取込部12は、カメラ10によって車両後方を撮影した画像を取り込む。この取り込んだ画像は、画像メモリ14に一旦格納される。本実施形態では、キャリブレーションシート200を車両後方の所定位置に配置した状態でカメラ10で車両移動前の1回目の撮影を行い、次に、所定距離だけ車両を前進させた後にカメラ10で車両移動後の2回目の撮影を行う。   The image capturing unit 12 captures an image obtained by photographing the rear of the vehicle with the camera 10. The captured image is temporarily stored in the image memory 14. In the present embodiment, the camera 10 performs the first shooting before moving the vehicle with the calibration sheet 200 placed at a predetermined position behind the vehicle, and then advances the vehicle by a predetermined distance and then moves the vehicle with the camera 10. Take a second shot after moving.

移動前画像格納部20は、車両の移動前に取り込んで画像メモリ14に格納された画像を読み出して移動前画像として格納する。中間画像格納部21は、車両の移動途中に取り込んで画像メモリ14に格納された画像を読み出して中間画像として格納する。また、移動後画像格納部22は、車両の移動後に取り込んで画像メモリ14に格納された画像を読み出して移動後画像として格納する。   The pre-movement image storage unit 20 reads out an image captured before the movement of the vehicle and stored in the image memory 14 and stores it as a pre-movement image. The intermediate image storage unit 21 reads out an image captured during the movement of the vehicle and stored in the image memory 14 and stores it as an intermediate image. Further, the post-movement image storage unit 22 reads out an image captured after the vehicle has moved and stored in the image memory 14 and stores it as a post-movement image.

移動前カメラ姿勢推定部24は、移動前画像格納部20に格納された移動前画像に基づいて、キャリブレーションシート200内の校正指標の位置を基準にしてカメラ10の姿勢を推定する。姿勢の推定値として、カメラ位置x1,y1,z1とカメラ角度rv1,rh1,rr1が得られる。ここで、x1はX座標値、y1はY座標値、z1はZ座標値、rv1はピッチ角、rh1はヨー角、rr1はロール角である。また、キャリブレーションシート200が配置された地面と平行な面に沿って、互いに直交するX方向とY方向が設定され、地面と垂直な向きにZ方向が設定されている。   The pre-movement camera posture estimation unit 24 estimates the posture of the camera 10 based on the position of the calibration index in the calibration sheet 200 based on the pre-movement image stored in the pre-movement image storage unit 20. Camera positions x1, y1, z1 and camera angles rv1, rh1, rr1 are obtained as estimated posture values. Here, x1 is an X coordinate value, y1 is a Y coordinate value, z1 is a Z coordinate value, rv1 is a pitch angle, rh1 is a yaw angle, and rr1 is a roll angle. In addition, an X direction and a Y direction orthogonal to each other are set along a plane parallel to the ground on which the calibration sheet 200 is arranged, and a Z direction is set in a direction perpendicular to the ground.

移動後カメラ姿勢推定部26は、移動後画像格納部22に格納された移動後画像に基づいて、キャリブレーションシート200内の校正指標の位置を基準にしてカメラ10の姿勢を推定する。姿勢の推定値として、カメラ位置x2,y2,z2とカメラ角度rv2,rh2,rr2が得られる。x2等の意味は、x1等の意味と同じである。   The post-movement camera posture estimation unit 26 estimates the posture of the camera 10 based on the position of the calibration index in the calibration sheet 200 based on the post-movement image stored in the post-movement image storage unit 22. Camera positions x2, y2, z2 and camera angles rv2, rh2, rr2 are obtained as estimated posture values. The meaning of x2 etc. is the same as the meaning of x1 etc.

移動距離算出部30は、移動前カメラ姿勢推定部24によって得られた姿勢の推定値と移動後カメラ姿勢推定部26によって得られた姿勢の推定値とに基づいて、実際に車両が移動した距離dを算出する。   The movement distance calculation unit 30 is based on the estimated posture value obtained by the pre-movement camera posture estimation unit 24 and the estimated posture value obtained by the post-movement camera posture estimation unit 26, and is the distance that the vehicle has actually moved. d is calculated.

ずれ量算出部32は、移動前カメラ姿勢推定部24によって得られた姿勢の推定値と移動後カメラ姿勢推定部26によって得られた姿勢の推定値とに基づいて、キャリブレーションシート200の正規位置(製品設計時に想定した理想的な設計位置)からのずれ量を算出する。   Based on the estimated posture value obtained by the pre-movement camera posture estimator 24 and the estimated posture value obtained by the post-movement camera posture estimator 26, the deviation amount calculation unit 32 determines the normal position of the calibration sheet 200. The amount of deviation from (ideal design position assumed at the time of product design) is calculated.

カメラ姿勢決定部34は、移動前カメラ姿勢推定部24および移動後カメラ姿勢推定部26の少なくとも一方によって得られた推定値と、ずれ量算出部32によって算出されたずれ量とに基づいて、カメラ10の姿勢を決定する。   Based on the estimated value obtained by at least one of the pre-movement camera posture estimation unit 24 and the post-movement camera posture estimation unit 26 and the deviation amount calculated by the deviation amount calculation unit 32, the camera posture determination unit 34 10 postures are determined.

表示処理部42は、車両を移動させる際に、カメラ10で撮影された画像を表示装置40に表示する。歪み補正部44は、車両の移動の前後および中間位置に対応する複数箇所においてカメラ10の撮影によって得られた複数の画像(移動前画像格納部20、中間画像格納部21、移動後画像格納部22に格納されている移動前画像、中間画像、移動後画像)に対して歪み補正を行う。歪み補正後の画像上では、直線状に移動した車両の軌跡は直線となる。直線移動判定部46は、歪み補正部44によって歪みが除去された後の複数の画像に基づいて、車両の移動が直線状になされたか否かを判定する。具体的には、直線移動判定部46は、歪み除去後の複数の画像について、キャリブレーションシート200の同一箇所に対応する特徴点を抽出し、これら複数の画像に含まれる複数の特徴点のそれぞれが直線状に配置されている場合に、車両の移動が直線状になされたものと判定する。   The display processing unit 42 displays an image captured by the camera 10 on the display device 40 when the vehicle is moved. The distortion correction unit 44 includes a plurality of images (pre-movement image storage unit 20, intermediate image storage unit 21, post-movement image storage unit) obtained by photographing with the camera 10 at a plurality of locations corresponding to before and after movement of the vehicle and intermediate positions. 22), distortion correction is performed on the pre-movement image, the intermediate image, and the post-movement image stored in the image. On the image after distortion correction, the trajectory of the vehicle that has moved linearly becomes a straight line. The linear movement determination unit 46 determines whether or not the vehicle has been moved linearly based on the plurality of images after the distortion is removed by the distortion correction unit 44. Specifically, the straight line movement determination unit 46 extracts feature points corresponding to the same portion of the calibration sheet 200 from the plurality of images after distortion removal, and each of the plurality of feature points included in the plurality of images. Are arranged in a straight line, it is determined that the movement of the vehicle has been made in a straight line.

操作部50は、利用者の操作指示を受け付けるためのものであり、各種のキーを備えている。例えば、画像取込部12による移動前後および中間位置における画像の取り込みは、利用者が操作部50を操作して行った取込指示に対応して行われる。   The operation unit 50 is for receiving a user's operation instruction, and includes various keys. For example, the image capturing unit 12 captures images before and after movement and at an intermediate position in response to a capture instruction performed by the user operating the operation unit 50.

上述した移動前画像格納部20が移動前画像格納手段に、移動後画像格納部22が移動後画像格納手段に、移動前カメラ姿勢推定部24が第1の姿勢推定手段に、移動後カメラ姿勢推定部26が第2の姿勢推定手段に、ずれ量算出部32がシートずれ量算出手段に、カメラ姿勢決定部34がカメラ姿勢決定手段に、表示処理部42が表示処理手段に、歪み補正部44が歪み補正手段に、直線移動判定部46が直線移動判定手段にそれぞれ対応する。   The above-mentioned pre-movement image storage unit 20 is the pre-movement image storage unit, the post-movement image storage unit 22 is the post-movement image storage unit, the pre-movement camera posture estimation unit 24 is the first posture estimation unit, and the post-movement camera posture. The estimation unit 26 is a second posture estimation unit, the deviation amount calculation unit 32 is a sheet deviation amount calculation unit, the camera posture determination unit 34 is a camera posture determination unit, the display processing unit 42 is a display processing unit, and a distortion correction unit. Reference numeral 44 corresponds to the distortion correction unit, and the linear movement determination unit 46 corresponds to the linear movement determination unit.

本実施形態の車載カメラ姿勢検出装置100はこのような構成を有しており、次に、カメラ10によってキャリブレーションシート200を撮影して最終的にカメラ10の姿勢を決定するまでの動作について説明する。   The in-vehicle camera posture detection apparatus 100 according to the present embodiment has such a configuration. Next, an operation from when the camera 10 captures the calibration sheet 200 and finally determines the posture of the camera 10 will be described. To do.

図4は、カメラ10の姿勢を決定する概略的な動作手順を示す流れ図である。まず、車両後方の所定位置にキャリブレーションシート200を配置した状態で、カメラ10による1回目の撮影が行われる(ステップ100)。例えば、利用者が操作部50を操作して1回目の取込指示を行う。画像取込部12は、この取込指示に応じてカメラ10で撮影された画像を取り込み、画像メモリ14に格納する。また、移動前画像格納部20は、画像メモリ14から画像を読み出して移動前画像として格納する。   FIG. 4 is a flowchart showing a schematic operation procedure for determining the posture of the camera 10. First, the first shooting by the camera 10 is performed in a state where the calibration sheet 200 is disposed at a predetermined position on the rear side of the vehicle (step 100). For example, the user operates the operation unit 50 to give a first capture instruction. The image capture unit 12 captures an image captured by the camera 10 in response to the capture instruction and stores it in the image memory 14. The pre-movement image storage unit 20 reads out an image from the image memory 14 and stores it as a pre-movement image.

また、移動前カメラ姿勢推定部24は、移動前画像格納部20から移動前画像を読み出し、カメラ10の姿勢を推定する(ステップ102)。これにより、カメラ10の姿勢の推定値として、カメラ位置x1,y1,z1とカメラ角度rv1,rh1,rr1が得られる。   Further, the pre-movement camera posture estimation unit 24 reads the pre-movement image from the pre-movement image storage unit 20 and estimates the posture of the camera 10 (step 102). Thereby, camera positions x1, y1, z1 and camera angles rv1, rh1, rr1 are obtained as estimated values of the posture of the camera 10.

次に、車両を所定距離だけ移動させる(ステップ104)。この車両の移動は、車両を直線状に所定距離前進させることにより行われる。所定距離としては、想定している理想値(例えば20cm)があるが、その近傍であれば理想値から多少ずれていても特に問題はない。なお、本実施形態では、車両の移動が直線状になされたか否かを判定(直線判定)し、直線状になされなかった場合には所定の通知が行われるが、これらの動作については後述する。   Next, the vehicle is moved by a predetermined distance (step 104). This movement of the vehicle is performed by advancing the vehicle in a straight line by a predetermined distance. There is an assumed ideal value (for example, 20 cm) as the predetermined distance, but there is no particular problem even if it is slightly deviated from the ideal value in the vicinity thereof. In the present embodiment, it is determined whether or not the movement of the vehicle has been made linear (straight line determination). If the vehicle has not been made linear, a predetermined notification is given, but these operations will be described later. .

次に、カメラ10による2回目の撮影が行われる(ステップ106)。例えば、利用者が操作部50を操作して2回目の取込指示を行う。画像取込部12は、この取込指示に応じてカメラ10で撮影された画像を取り込み、画像メモリ14に格納する。また、移動後画像格納部22は、画像メモリ14から画像を読み出して移動後画像として格納する。   Next, the second shooting is performed by the camera 10 (step 106). For example, the user operates the operation unit 50 to give a second capture instruction. The image capture unit 12 captures an image captured by the camera 10 in response to the capture instruction and stores it in the image memory 14. The post-movement image storage unit 22 reads an image from the image memory 14 and stores it as a post-movement image.

また、移動後カメラ姿勢推定部26は、移動後画像格納部22から移動後画像を読み出し、カメラ10の姿勢を推定する(ステップ108)。これにより、カメラ10の姿勢の推定値として、カメラ位置x2,y2,z2とカメラ角度rv2,rh2,rr2が得られる。   The post-movement camera posture estimation unit 26 reads the post-movement image from the post-movement image storage unit 22 and estimates the posture of the camera 10 (step 108). Thereby, camera positions x2, y2, z2 and camera angles rv2, rh2, rr2 are obtained as estimated values of the posture of the camera 10.

次に、移動距離算出部30は、ステップ102、108の推定動作によって得られた2つのカメラ位置に基づいて車両の移動距離dを算出する(ステップ110)。具体的には、移動距離算出部30は、1回目の推定結果であるカメラ位置x1,y1と2回目の推定結果であるカメラ位置x2,y2を用いて、距離dを以下の式により算出する。   Next, the moving distance calculation unit 30 calculates the moving distance d of the vehicle based on the two camera positions obtained by the estimation operations in steps 102 and 108 (step 110). Specifically, the moving distance calculation unit 30 calculates the distance d by the following expression using the camera positions x1 and y1 that are the first estimation results and the camera positions x2 and y2 that are the second estimation results. .

d=√((x1−x2)2+(y1−y2)2) …(1)
次に、ずれ量算出部32は、キャリブレーションシート200の設計位置からのずれ量X,Y,Rを算出する(ステップ112)。ここで、XはX方向のずれ量、YはY方向のずれ量、Rは回転方向のずれ量である。図5は、3つのずれ量X,Y,Rの関係を示す図である。図5において、Aは設計位置に配置されたキャリブレーションシート200内の一点を示しており、Bは実際に配置されたキャリブレーションシート200内の対応点を示している。
d = √ ((x1-x2) 2 + (y1-y2) 2 ) (1)
Next, the deviation amount calculation unit 32 calculates deviation amounts X, Y, and R from the design position of the calibration sheet 200 (step 112). Here, X is the amount of deviation in the X direction, Y is the amount of deviation in the Y direction, and R is the amount of deviation in the rotational direction. FIG. 5 is a diagram showing the relationship between the three deviation amounts X, Y, and R. In FIG. 5, A shows one point in the calibration sheet 200 arranged at the design position, and B shows a corresponding point in the calibration sheet 200 actually arranged.

車両を移動させる前にキャリブレーションシート200を設計位置に配置したと仮定したときに得られるカメラ10の位置(この位置を「移動前の設計位置」と称する)をx,yとする。なお、z方向の位置はキャリブレーションシート200のずれに関係なく一定であるため、説明を省略する。車両移動前に推定されたカメラ10の位置x1,y1と移動前の設計位置x,yとの間には、   Assume that the position of the camera 10 obtained when the calibration sheet 200 is arranged at the design position before the vehicle is moved (this position is referred to as “design position before movement”) is x and y. Since the position in the z direction is constant regardless of the displacement of the calibration sheet 200, description thereof is omitted. Between the position x1, y1 of the camera 10 estimated before the vehicle movement and the design position x, y before the movement,

Figure 2013005032
Figure 2013005032

の関係がある。 There is a relationship.

同様に、車両を移動させた後にキャリブレーションシート200を設計位置に配置したと仮定したときに得られるカメラ10の位置(この位置を「移動後の設計位置」と称する)をx’,y’とする。車両移動後に推定されたカメラ10の位置x2,y2と移動後の設計位置x’,y’との間には、   Similarly, the position of the camera 10 obtained when it is assumed that the calibration sheet 200 is arranged at the design position after moving the vehicle (this position is referred to as “designed position after movement”) is x ′, y ′. And Between the positions x2, y2 of the camera 10 estimated after the vehicle movement and the designed positions x ', y' after the movement,

Figure 2013005032
Figure 2013005032

の関係がある。(2)式と(3)式を展開すると、 There is a relationship. When formulas (2) and (3) are expanded,

Figure 2013005032
Figure 2013005032

となる。(4)式をキャリブレーションシート200のずれ量(X,Y,R)に着目して行列式で表すと、 It becomes. When the expression (4) is expressed by a determinant focusing on the shift amount (X, Y, R) of the calibration sheet 200,

Figure 2013005032
Figure 2013005032

となる。この(5)式を変形すると以下の(6)式を得る。 It becomes. When this equation (5) is modified, the following equation (6) is obtained.

Figure 2013005032
Figure 2013005032

ところで、車両の移動をY方向に沿って行うものとすると、カメラ10の移動前の設計位置x,yと移動後の設計位置x’,y’との間には以下の関係がある。 By the way, if the vehicle is moved along the Y direction, the following relationship exists between the design positions x, y before the camera 10 moves and the design positions x ', y' after the movement.

x’=x
y’=y+d …(7)
すなわち、(6)式の右辺は全て既知の値であり、ずれ量算出部32は(6)式を用いることでずれ量X,Y,Rを算出することができる。
x ′ = x
y ′ = y + d (7)
That is, all the right sides of the equation (6) are known values, and the deviation amount calculation unit 32 can calculate the deviation amounts X, Y, and R by using the equation (6).

次に、カメラ姿勢決定部34は、未知の値であるカメラ10の角度rv(ピッチ角)、rh(ヨー角)、rr(ロール角)を算出する(ステップ114)。カメラ10の実際の角度rv,rh,rrと、推定値rv1,rh1,rr1と、キャリブレーションシート200のずれ量Rとの関係は以下のように表すことができる。   Next, the camera posture determination unit 34 calculates angles rv (pitch angle), rh (yaw angle), and rr (roll angle) of the camera 10, which are unknown values (step 114). The relationship between the actual angles rv, rh, rr of the camera 10, the estimated values rv1, rh1, rr1, and the deviation amount R of the calibration sheet 200 can be expressed as follows.

Ry(R)・Rx(rv)・Ry(rh)・Rz(rr)
=Rx(rv1)・Ry(rr1)・Rz(rh1) …(8)
ここで、Rx(rv)、Ry(rh)、Rz(rr)は、以下に示す回転行列である。
Ry (R), Rx (rv), Ry (rh), Rz (rr)
= Rx (rv1) .Ry (rr1) .Rz (rh1) (8)
Here, Rx (rv), Ry (rh), and Rz (rr) are rotation matrices shown below.

Figure 2013005032
Figure 2013005032

(8)式を変形すると、以下のようになる。 When the equation (8) is modified, it becomes as follows.

Rx(rv)・Ry(rh)・Rz(rr)
=Ry(−R)・Rx(rv1)・Ry(rh1)・Rz(rr1) …(12)
(12)式の右辺は全て既知の値なので、展開して以下のように置く。
Rx (rv), Ry (rh), Rz (rr)
= Ry (-R) .Rx (rv1) .Ry (rh1) .Rz (rr1) (12)
Since all the right sides of the equation (12) are known values, they are expanded and placed as follows.

Figure 2013005032
Figure 2013005032

また、(12)式の左辺を展開して(13)式とともに解くと、以下のようになる。 Further, when the left side of the expression (12) is expanded and solved together with the expression (13), the result is as follows.

Figure 2013005032
Figure 2013005032

カメラ姿勢決定部34は、このようにしてカメラ10の角度rv,rh,rrを算出する。 In this way, the camera posture determination unit 34 calculates the angles rv, rh, and rr of the camera 10.

次に、移動前カメラ姿勢推定部24および移動後カメラ姿勢推定部26によるカメラ姿勢の推定動作について説明する。なお、移動前カメラ姿勢推定部24と移動後カメラ姿勢推定部26は同じ構成を有しており、以下では移動前カメラ姿勢推定部24の詳細について説明を行うものとする。   Next, camera posture estimation operations by the pre-movement camera posture estimation unit 24 and the post-movement camera posture estimation unit 26 will be described. The pre-movement camera posture estimation unit 24 and the post-movement camera posture estimation unit 26 have the same configuration, and the details of the pre-movement camera posture estimation unit 24 will be described below.

図6は、移動前カメラ姿勢推定部24の詳細構成を示す図である。図6に示すように、移動前カメラ姿勢推定部24は、校正指標中心位置検出部60、校正指標座標記憶部61、63、座標変換部62、構成指標間距離調整部64、構成指標位置調整部65、カメラ姿勢調整部66とを含んで構成されている。   FIG. 6 is a diagram illustrating a detailed configuration of the pre-movement camera posture estimation unit 24. As shown in FIG. 6, the pre-movement camera posture estimation unit 24 includes a calibration index center position detection unit 60, calibration index coordinate storage units 61 and 63, a coordinate conversion unit 62, a configuration index distance adjustment unit 64, and a configuration index position adjustment. Part 65 and a camera posture adjusting part 66.

校正指標中心位置検出部60は、移動前画像格納部20に格納された移動前画像を読み出して、この移動前画像に含まれるキャリブレーションシート200内の校正指標の中心位置を検出する。例えば、校正指標中心位置検出部60は、キャリブレーションシート200に含まれる校正指標としての12個の小黒丸210を画像認識により抽出し、それぞれの中心位置の座標値を校正指標座標記憶部61に保存する。なお、この中心位置の座標値は、カメラ10の光軸Sに垂直に画像平面(U−V座標系)が設定された魚眼座標系によって表されたものである。   The calibration index center position detection unit 60 reads the pre-movement image stored in the pre-movement image storage unit 20 and detects the center position of the calibration index in the calibration sheet 200 included in the pre-movement image. For example, the calibration index center position detection unit 60 extracts twelve small black circles 210 as calibration indices included in the calibration sheet 200 by image recognition, and stores the coordinate values of the respective center positions in the calibration index coordinate storage unit 61. save. The coordinate value of the center position is expressed by a fish-eye coordinate system in which an image plane (U-V coordinate system) is set perpendicular to the optical axis S of the camera 10.

座標変換部62は、各校正指標の中心座標値を、魚眼座標系から、地面をX−Y平面、地面に垂直な向きをZ方向とする基準座標系に変換し、校正指標座標記憶部63に保存する。   The coordinate conversion unit 62 converts the center coordinate value of each calibration index from the fish-eye coordinate system to a reference coordinate system in which the ground is the XY plane and the direction perpendicular to the ground is the Z direction, and the calibration index coordinate storage unit Save to 63.

図7は、座標変換の説明図である。図7において、X−Y−Zは基準座標系を、U−V−Sは魚眼座標系をそれぞれ示している。また、図7において、x1,y1,z1を魚眼座標系U−V−Sと基準座標系X−Y−Zの原点間の距離、rx,ry,rzを基準座標系X−Y−Zに対するカメラ10の各軸周りの回転量とすると、以下の式が成立する。但し、u,v,sは校正指標の魚眼座標系における中心座標値で既知、λは基準座標系の単位を実際の校正指標間距離からmmに変換するための係数である。   FIG. 7 is an explanatory diagram of coordinate conversion. In FIG. 7, XYZ represents a reference coordinate system, and UVS represents a fish-eye coordinate system. In FIG. 7, x1, y1, and z1 are distances between the origins of the fish-eye coordinate system UVS and the reference coordinate system XYZ, and rx, ry, and rz are reference coordinate systems XYZ. Assuming that the amount of rotation about each axis of the camera 10 is as follows, the following equation is established. However, u, v, and s are known as center coordinate values of the calibration index in the fish-eye coordinate system, and λ is a coefficient for converting the unit of the reference coordinate system from the actual distance between calibration indices to mm.

Figure 2013005032
Figure 2013005032

図7(B)より、カメラ10の光軸がX−Y平面上のP点に向いているときのX軸周りの回転量はrv(=rx)、Y軸周りの回転量はrh(=ry)、Z軸周りの回転量はrr(=rz)である。これらのそれぞれが、ピッチ角、ヨー角、ロール角である。 7B, when the optical axis of the camera 10 is directed to the point P on the XY plane, the rotation amount around the X axis is rv (= rx), and the rotation amount around the Y axis is rh (= ry), the amount of rotation about the Z axis is rr (= rz). Each of these is a pitch angle, a yaw angle, and a roll angle.

以後、校正指標間距離調整部64、校正指標位置調整部65、カメラ姿勢調整部66は、校正指標間の各軸方向距離が実際の各軸方向距離と等しくなるように、かつ、校正指標位置が実際の校正指標位置と等しくなるようにrv,rh,rr,x1,y1,z1を決定する。すなわち、最初に、校正指標間距離調整部64およびカメラ姿勢調整部66は、x1,y1,z1を固定した状態でrv,rh,rrを変更しながら各校正指標間の中心座標値を(15)式を用いて計算し、各校正指標間の各軸方向距離を計算し、各校正指標間の各軸方向距離が等しくなるrv,rh,rrを求め、これらrv,rh,rrをカメラ角度として出力する。また、校正指標位置調整部65およびカメラ姿勢調整部66は、(15)式より各校正指標の中心座標値を計算し、実際の校正指標の中心位置(既知)と等しくなるx1,y1,z1を求め、カメラ位置として出力する。   Thereafter, the calibration index distance adjusting unit 64, the calibration index position adjusting unit 65, and the camera posture adjusting unit 66 are configured so that the axial distances between the calibration indexes become equal to the actual axial distances, and the calibration index positions. Rv, rh, rr, x1, y1, z1 are determined so that becomes equal to the actual calibration index position. That is, first, the calibration index distance adjusting unit 64 and the camera posture adjusting unit 66 change the rv, rh, and rr while fixing x1, y1, and z1, and set the center coordinate value between the calibration indexes as (15 ) To calculate the respective axial distances between the calibration indices, find rv, rh, rr in which the axial distances between the calibration indices are equal, and determine these rv, rh, rr as camera angles. Output as. Further, the calibration index position adjustment unit 65 and the camera posture adjustment unit 66 calculate the center coordinate value of each calibration index from Equation (15), and x1, y1, z1 that are equal to the actual center position (known) of the calibration index. Is output as the camera position.

具体的には、rrを変更することにより校正指標の傾斜を調整することができ、rhを変更することにより校正指標間の垂直方向の距離を調整することができ、rvを変更することにより校正指標間の水平方向の距離を調整することができる。   Specifically, the inclination of the calibration index can be adjusted by changing rr, the vertical distance between the calibration indices can be adjusted by changing rh, and the calibration can be performed by changing rv. The horizontal distance between the indicators can be adjusted.

したがって、最初、校正指標傾斜調整量決定部64aはx1,y1,z1を一定値(例えば0)としたときの各校正指標の中心座標値を用いて校正指標傾斜角度を計算する。校正指標の並びが傾斜している場合には傾斜角=0となるようにrrを調整し、調整量Δrrをカメラ姿勢調整部66に入力する。カメラ姿勢調整部66は、rr=rr+Δrrにより、新rrを計算して座標変換部62に入力する。これにより、座標変換部62は、(15)式により各校正指標の中心座標を計算し、校正指標傾斜調整量決定部64aは、これらの各校正指標の中心座標値を用いて校正指標傾斜角度を計算する。以後、校正指標傾斜角が0となるまで以上の処理を継続してrrの調整が行われる。   Therefore, first, the calibration index tilt adjustment amount determination unit 64a calculates the calibration index tilt angle using the center coordinate value of each calibration index when x1, y1, and z1 are constant values (for example, 0). When the alignment of the calibration indices is inclined, rr is adjusted so that the inclination angle = 0, and the adjustment amount Δrr is input to the camera attitude adjustment unit 66. The camera posture adjustment unit 66 calculates a new rr by rr = rr + Δrr and inputs it to the coordinate conversion unit 62. As a result, the coordinate conversion unit 62 calculates the center coordinates of each calibration index according to equation (15), and the calibration index tilt adjustment amount determination unit 64a uses the center coordinate value of each calibration index to determine the calibration index tilt angle. Calculate Thereafter, the above processing is continued until the calibration index inclination angle becomes 0, and rr is adjusted.

校正指標傾斜角度が0となるようにrrの調整が終了すれば、校正指標間距離算出部64bは、各校正指標間のX軸方向の距離を計算し、校正指標間距離調整完了決定部64dは各校正指標間のX軸方向距離が等しいか調べ、等しくなければ校正指標間距離調整量決定部64cに調整指示信号を入力する。これにより、校正指標間距離調整量決定部64cはrhを調整し、調整量Δrhをカメラ姿勢調整部66に入力する。カメラ姿勢調整部66は、rh=rh+Δrhより、新rhを計算して座標変換部62に入力する。これにより、座標変換部62は、(15)式により各校正指標の中心座標値を計算し、校正指標間距離算出部64bは各校正指標の中心座標値を用いて各校正指標間のX軸方向距離を計算し、各校正指標間のX軸方向距離が等しくなるまでrhの調整を行う。   When the adjustment of rr is completed so that the calibration index inclination angle becomes 0, the calibration index distance calculation unit 64b calculates the distance between the calibration indexes in the X-axis direction, and the calibration index distance adjustment completion determination unit 64d. Checks whether the distances in the X-axis direction between the calibration indices are equal, and if not, inputs an adjustment instruction signal to the calibration index distance adjustment amount determination unit 64c. Thus, the calibration index distance adjustment amount determination unit 64 c adjusts rh and inputs the adjustment amount Δrh to the camera posture adjustment unit 66. The camera posture adjustment unit 66 calculates a new rh from rh = rh + Δrh and inputs the new rh to the coordinate conversion unit 62. Thereby, the coordinate conversion unit 62 calculates the center coordinate value of each calibration index according to the equation (15), and the calibration index distance calculation unit 64b uses the center coordinate value of each calibration index to set the X axis between the calibration indices. The direction distance is calculated, and rh is adjusted until the X-axis direction distances between the calibration indices become equal.

rhの調整が終了すれば、校正指標間距離算出部64bは各校正指標間のY軸方向の距離を計算し、校正指標間距離調整完了決定部64dは各校正指標間のY軸方向距離が等しいか調べ、等しくなければ校正指標間距離調整量決定部64cに調整指示信号を入力する。これにより、校正指標間距離調整量決定部64cはrvを調整し、調整量Δrvをカメラ姿勢調整部66に入力する。カメラ姿勢調整部66はrv=rv+Δrvにより、新rvを計算して座標変換部62に入力する。これにより、座標変換部62は(15)式により各校正指標の中心座標値を計算し、校正指標間距離算出部64bは各校正指標の中心座標値を用いて各校正指標間のY軸方向距離を計算し、各校正指標間のY軸方向の距離が等しくなるまでrvの調整を行う。   When the adjustment of rh is completed, the calibration index distance calculation unit 64b calculates the distance between the calibration indexes in the Y-axis direction, and the calibration index distance adjustment completion determination unit 64d determines the Y-axis direction distance between the calibration indexes. If they are not equal, an adjustment instruction signal is input to the calibration index distance adjustment amount determination unit 64c. As a result, the calibration index distance adjustment amount determination unit 64 c adjusts rv and inputs the adjustment amount Δrv to the camera posture adjustment unit 66. The camera attitude adjustment unit 66 calculates a new rv by rv = rv + Δrv and inputs it to the coordinate conversion unit 62. Thereby, the coordinate conversion unit 62 calculates the center coordinate value of each calibration index according to the equation (15), and the calibration index distance calculation unit 64b uses the center coordinate value of each calibration index to perform the Y-axis direction between the calibration indices. The distance is calculated, and rv is adjusted until the distance in the Y-axis direction between the calibration indices becomes equal.

以上により、rv(=rv1),rh(=rh1),rr(=rr1)の調整が完了すれば、校正指標間距離調整完了決定部64dは取り付け角度調整完了信号DAJEDを出力する。   As described above, when adjustment of rv (= rv1), rh (= rh1), and rr (= rr1) is completed, the calibration index distance adjustment completion determination unit 64d outputs the attachment angle adjustment completion signal DAJED.

校正指標位置調整部65は、取り付け角度調整完了信号DAJEDが発生すると、実際の校正指標中心位置(Xs,Ys)と等しくなるx1,y1を(15)式より求め、また、校正指標のサイズ(あるいは校正指標間距離)が実際の校正指標サイズ(あるいは校正指標間距離)と等しくなるようにz1を調整し、カメラ位置として出力する。その後、カメラ姿勢調整部66は、算出したカメラ角度rv1,rh1,rr1とカメラ位置x1,y1,z1を、移動前カメラ姿勢推定部24から出力する。   When the attachment angle adjustment completion signal DAJED is generated, the calibration index position adjustment unit 65 obtains x1 and y1 that are equal to the actual calibration index center position (Xs, Ys) from the equation (15), and also calculates the calibration index size ( Alternatively, z1 is adjusted so that the distance between calibration indices is equal to the actual calibration index size (or distance between calibration indices), and is output as the camera position. Thereafter, the camera posture adjustment unit 66 outputs the calculated camera angles rv1, rh1, rr1 and camera positions x1, y1, z1 from the pre-movement camera posture estimation unit 24.

このように、本実施形態の車載カメラ姿勢検出装置100では、車両を移動させる前後の画像に基づいてキャリブレーションシート200の所定位置(設計位置)からのずれ量を算出しているため、このキャリブレーションシート200のずれによる影響を取り除くことができ、カメラ10の姿勢を正確に検出することが可能となる。また、車両の移動を直線状とすることにより、移動の前後でキャリブレーションシート200を撮影した際に、キャリブレーションシート200の回転方向のずれを一定にすることができ、算出するパラメータの数を減らすことができるため、処理の簡略化が可能となる。   As described above, the in-vehicle camera posture detection device 100 according to the present embodiment calculates the deviation amount from the predetermined position (design position) of the calibration sheet 200 based on the images before and after the vehicle is moved. It is possible to remove the influence due to the displacement of the motion sheet 200, and to accurately detect the posture of the camera 10. Further, by making the movement of the vehicle linear, when the calibration sheet 200 is photographed before and after the movement, the deviation in the rotation direction of the calibration sheet 200 can be made constant, and the number of parameters to be calculated is Since it can be reduced, processing can be simplified.

また、車両を移動させる所定距離dは、移動前カメラ姿勢推定部24と移動後カメラ姿勢推定部26によって得られた推定値に基づいて算出しているため車両の移動距離dを正確に把握することが可能となり、移動後画像に基づくカメラ姿勢推定の誤差を低減することが可能となる。   Further, since the predetermined distance d for moving the vehicle is calculated based on the estimated values obtained by the pre-movement camera posture estimation unit 24 and the post-movement camera posture estimation unit 26, the vehicle movement distance d is accurately grasped. It is possible to reduce errors in camera posture estimation based on the post-movement image.

次に、車両を移動させる際に行われる直線判定とその結果の通知について説明する。図8は、車両の移動と並行して行われる直線判定の動作手順を示す流れ図である。1回目の撮影が終了して移動前画像が移動前画像格納部20に格納(図4のステップ100)された後、歪み補正部44は、この移動前画像に対して歪み補正を行う(ステップ200)。例えば、この歪み補正は、カメラ10の光軸に垂直な平面に移動前画像を投影変換することにより行われる。歪み補正後の画像は、図示しない画像格納部に格納される(後述する中間画像および移動後画像に対応する歪み補正後の画像についても同様である)。   Next, straight line determination performed when the vehicle is moved and notification of the result will be described. FIG. 8 is a flowchart showing an operation procedure of straight line determination performed in parallel with the movement of the vehicle. After the first shooting is completed and the pre-movement image is stored in the pre-movement image storage unit 20 (Step 100 in FIG. 4), the distortion correction unit 44 performs distortion correction on the pre-movement image (Step S100). 200). For example, this distortion correction is performed by projecting and converting the pre-movement image on a plane perpendicular to the optical axis of the camera 10. The image after distortion correction is stored in an image storage unit (not shown) (the same applies to an image after distortion correction corresponding to an intermediate image and a moved image described later).

次に、中間画像の撮影および中間画像格納部21への格納が行われる(ステップ202)。これらの動作は、移動前画像の撮影等と同じ手順で行われる。すなわち、車両を一旦停止させた後に利用者が操作部50を操作して中間画像の取込指示を行う。画像取込部12は、この取込指示に応じてカメラ10で撮影された画像を取り込み、画像メモリ14に格納する。また、中間画像格納部21は、画像メモリ14から画像を読み出して中間画像として格納する。また、歪み補正部44は、この中間画像に対して歪み補正を行う(ステップ204)。   Next, an intermediate image is captured and stored in the intermediate image storage unit 21 (step 202). These operations are performed in the same procedure as that for capturing a pre-movement image. That is, after the vehicle is temporarily stopped, the user operates the operation unit 50 to instruct to capture an intermediate image. The image capture unit 12 captures an image captured by the camera 10 in response to the capture instruction and stores it in the image memory 14. The intermediate image storage unit 21 reads an image from the image memory 14 and stores it as an intermediate image. Further, the distortion correction unit 44 performs distortion correction on the intermediate image (step 204).

また、2回目の撮影が終了して移動後画像が移動後画像格納部22に格納(図4のステップ106)された後、歪み補正部44は、この移動後画像に対して歪み補正を行う(ステップ206)。   In addition, after the second shooting is completed and the moved image is stored in the moved image storage unit 22 (step 106 in FIG. 4), the distortion correction unit 44 performs distortion correction on the moved image. (Step 206).

次に、直線移動判定部46は、移動前画像、中間画像、移動後画像のそれぞれに対応する複数の歪み補正後の画像に含まれるキャリブレーションシート200の対応箇所を特徴点として抽出する(ステップ208)。例えば、直線移動判定部46は、図3に示したキャリブレーションシート200に含まれる12個の校正指標としての小黒丸210の中の3つの中央(円心)を特徴点として抽出する。また、表示処理部42は、抽出した特徴点が含まれる歪み補正後の画像を表示装置40の画面に表示する(ステップ210)。   Next, the straight line movement determination unit 46 extracts corresponding portions of the calibration sheet 200 included in a plurality of images after distortion correction corresponding to the pre-movement image, the intermediate image, and the post-movement image as feature points (step). 208). For example, the straight line movement determination unit 46 extracts three centers (circle centers) in the small black circles 210 as twelve calibration indexes included in the calibration sheet 200 shown in FIG. 3 as feature points. Further, the display processing unit 42 displays an image after distortion correction including the extracted feature points on the screen of the display device 40 (step 210).

図9は、歪み補正前後の画像の表示例を示す図である。図9(A)には、移動前画像とその歪み補正後の画像が示されている。図9(B)には、中間画像とその歪み補正後の画像が示されている。図9(C)には、移動後画像とその歪み補正後の画像が示されている。ステップ210において表示される歪み補正後の画像は、移動前画像、中間画像、移動後画像のいずれに対応するものでもよいが、抽出した特徴点の表示を妨げないように考慮すると、移動後画像に対応するものが最も望ましい。車両の移動に伴って車両とキャリブレーションシート200の間に路面のスペースが生じるからである。例えば、本実施形態では、図9(C)に示す歪み補正後の画像が表示されるものとする。この表示画像には、移動前画像に含まれるキャリブレーションシート200の3つの校正指標の中心を示すマーカM1と、中間画像に含まれるキャリブレーションシート200の3つの校正指標の中心を示すマーカM2と、移動後画像に含まれるキャリブレーションシート200の3つの校正指標の中心を示すマーカM3と、同一位置に対応するマーカM1、M3を結ぶ補助線Hとが含まれている。各マーカM1、M2、M3は特徴点の位置を示すものであり、車両の移動が直線状である場合にはこれら3つのマーカM1、M2、M3は直線状に配置される。一方、車両の移動が直線状でない場合には、これら3つのマーカM1、M2、M3は直線状には配置されず、中央のマーカM2の位置が補助線Hからずれることになる。したがって、利用者(車両の運転者)は、この表示画像を見ることで、車両の移動が直線状か否かを自分で知ることができる。但し、補助線HからマーカM2がどの程度外れた場合に、車両が直線状に移動しなかったとするかは明確でない場合もあるため、本実施形態では、その判定を直線移動判定部46によって行っている。   FIG. 9 is a diagram illustrating a display example of images before and after distortion correction. FIG. 9A shows an image before movement and an image after distortion correction. FIG. 9B shows an intermediate image and an image after distortion correction. FIG. 9C shows an image after movement and an image after distortion correction. The image after distortion correction displayed in step 210 may correspond to any of the pre-movement image, the intermediate image, and the post-movement image. However, in consideration of not disturbing the display of the extracted feature points, the post-movement image The one corresponding to is most desirable. This is because a road surface space is generated between the vehicle and the calibration sheet 200 as the vehicle moves. For example, in this embodiment, it is assumed that an image after distortion correction shown in FIG. 9C is displayed. This display image includes a marker M1 indicating the center of the three calibration indices of the calibration sheet 200 included in the pre-movement image, and a marker M2 indicating the center of the three calibration indices of the calibration sheet 200 included in the intermediate image. In addition, a marker M3 indicating the center of the three calibration indices of the calibration sheet 200 included in the post-movement image and an auxiliary line H connecting the markers M1 and M3 corresponding to the same position are included. Each marker M1, M2, M3 indicates the position of the feature point. When the movement of the vehicle is linear, these three markers M1, M2, M3 are arranged linearly. On the other hand, when the movement of the vehicle is not linear, these three markers M1, M2, and M3 are not arranged linearly, and the position of the center marker M2 deviates from the auxiliary line H. Therefore, the user (vehicle driver) can know by himself whether or not the movement of the vehicle is linear by looking at the display image. However, it may not be clear how far the marker M2 has deviated from the auxiliary line H and the vehicle has not moved linearly. In this embodiment, this determination is performed by the linear movement determination unit 46. ing.

直線移動判定部46は、車両の移動が直線状になされたか否かを判定する(ステップ212)。判定の手法自体は利用者自身が行うものと基本的に同じであり、補助線HとマーカM2との距離が所定値以下の場合に車両の移動が直線状であると判定され、基準値を超える場合には直線状ではないと判定される。直線状でない場合にはステップ212の判定で否定判断が行われ、次に、直線移動判定部46は、車両の移動が直線状でない旨の通知を行う(ステップ214)。例えば、直線移動判定部46は、表示処理部42を介して表示装置40に車両の移動のやり直しを促すメッセージを表示する。あるいは、ブザーやスピーカからブザー音やメッセージ音声を出力するようにしてもよい。この通知を受け取った車両の運転者は、車両の移動を再度実施する。なお、この場合は、移動前画像を撮影した位置に正確に車両を戻すことはできないため、図4に示す動作手順を最初から実施することになる。   The linear movement determination unit 46 determines whether or not the vehicle has moved linearly (step 212). The determination method itself is basically the same as that performed by the user himself / herself. When the distance between the auxiliary line H and the marker M2 is equal to or smaller than a predetermined value, it is determined that the movement of the vehicle is linear, and the reference value is set. When exceeding, it determines with it not being linear. If it is not linear, a negative determination is made in the determination in step 212, and then the linear movement determination unit 46 notifies that the movement of the vehicle is not linear (step 214). For example, the straight line movement determination unit 46 displays a message prompting the user to redo the movement of the vehicle via the display processing unit 42. Alternatively, a buzzer sound or a message sound may be output from a buzzer or a speaker. The driver of the vehicle that has received this notification performs the movement of the vehicle again. In this case, since the vehicle cannot be accurately returned to the position where the pre-movement image was taken, the operation procedure shown in FIG. 4 is performed from the beginning.

このように、本実施形態の車載カメラ姿勢検出装置100では、車両の移動が直線状であるか否かを判定しているため、直線状でなかった場合に車両の移動をやりなおすことができ、カメラ姿勢の検出に含まれる誤差の拡大を未然に防ぐことができる。また、その判定に、歪み補正を行って歪みを除去した画像を用いることにより、車両の移動に連動する画像内の被写体(特徴点)の移動が直線状になるため、車両の移動が直線状になされたか否かの判定が容易となる。   Thus, in the vehicle-mounted camera posture detection device 100 of the present embodiment, since it is determined whether or not the movement of the vehicle is linear, the movement of the vehicle can be redone if it is not linear, It is possible to prevent an increase in error included in the detection of the camera posture. In addition, since the movement of the subject (feature point) in the image interlocked with the movement of the vehicle is linear by using an image obtained by performing distortion correction and removing the distortion for the determination, the movement of the vehicle is linear. This makes it easy to determine whether or not

また、車両の移動の前後と中間位置に対応する特徴点としてのマーカM1〜M3とその両端を通る直線状の補助線Hが含まれる歪み補正後の画像を表示することにより、車両を移動する運転者自身が画像を見ながら車両の移動が直線状か否かを簡単に確認することができる。また、車両の移動が直線状になされなかった旨の判定がなされたときに車両の運転者に対して通知を行うことにより、カメラ姿勢の決定に関する一連の動作のやり直しを促すことができる。   Further, the vehicle is moved by displaying a distortion-corrected image including markers M1 to M3 as feature points corresponding to before and after the movement of the vehicle and an intermediate position and a linear auxiliary line H passing through both ends thereof. The driver himself / herself can easily confirm whether or not the movement of the vehicle is linear while viewing the image. Further, by notifying the vehicle driver when it is determined that the vehicle has not been moved linearly, it is possible to prompt the user to redo a series of operations related to determination of the camera posture.

なお、本発明は上記実施形態に限定されるものではなく、本発明の要旨の範囲内において種々の変形実施が可能である。例えば、上述した実施形態では、移動前画像格納部20および移動前カメラ姿勢推定部24と、移動後画像格納部22および移動後カメラ姿勢推定部26とを別々に設けたが、これらは基本的に同じ処理を行っているため、一方を省略して他方において同じ処理を繰り返し行うようにしてもよい。   In addition, this invention is not limited to the said embodiment, A various deformation | transformation implementation is possible within the range of the summary of this invention. For example, in the above-described embodiment, the pre-movement image storage unit 20 and the pre-movement camera posture estimation unit 24, and the post-movement image storage unit 22 and the post-movement camera posture estimation unit 26 are provided separately. Since the same processing is performed, one may be omitted and the same processing may be repeated in the other.

また、上述した実施形態では、車両後方を撮影するカメラ10について説明したが、車両前方あるいは車両側方を撮影するカメラの姿勢を決定する場合にも本発明を適用することができる。   In the above-described embodiment, the camera 10 that captures the rear of the vehicle has been described. However, the present invention can also be applied when determining the posture of the camera that captures the front or side of the vehicle.

上述したように、本発明によれば、車両を移動させる前後の画像に基づいてキャリブレーションシート200の所定位置(設計位置)からのずれ量を算出しているため、このキャリブレーションシート200のずれによる影響を取り除くことができ、カメラ10の姿勢を正確に検出することが可能となる。また、車両の移動が直線状であるか否かを判定しているため、直線状でなかった場合に車両の移動をやりなおすことができ、カメラ姿勢の検出に含まれる誤差の拡大を未然に防ぐことができる。   As described above, according to the present invention, since the amount of deviation from the predetermined position (design position) of the calibration sheet 200 is calculated based on the images before and after the vehicle is moved, the deviation of the calibration sheet 200 is calculated. Thus, the posture of the camera 10 can be accurately detected. In addition, since it is determined whether or not the movement of the vehicle is a straight line, the movement of the vehicle can be redone if it is not a straight line, thereby preventing an increase in errors included in the detection of the camera posture. be able to.

10 カメラ
12 画像取込部
14 画像メモリ
20 移動前画像格納部
21 中間画像格納部
22 移動後画像格納部
24 移動前カメラ姿勢推定部
26 移動後カメラ姿勢推定部
30 移動距離算出部
32 ずれ量算出部
34 カメラ姿勢決定部
40 表示装置
42 表示処理部
44 歪み補正部
46 直線移動判定部
50 操作部
100 車載カメラ姿勢検出装置
200 キャリブレーションシート
DESCRIPTION OF SYMBOLS 10 Camera 12 Image capture part 14 Image memory 20 Pre-movement image storage part 21 Intermediate image storage part 22 Post-movement image storage part 24 Pre-movement camera attitude estimation part 26 Post-movement camera attitude estimation part 30 Movement distance calculation part 32 Deviation amount calculation Unit 34 camera posture determination unit 40 display device 42 display processing unit 44 distortion correction unit 46 linear movement determination unit 50 operation unit 100 vehicle-mounted camera posture detection device 200 calibration sheet

Claims (6)

車両に搭載されたカメラで車両周辺に配置されたキャリブレーションシートに含まれる複数の校正指標を撮影し、得られた画像に基づいて前記カメラの姿勢を検出する車載カメラ姿勢検出装置であって、
前記カメラで撮影された前記キャリブレーションシートの画像を移動前画像として格納する移動前画像格納手段と、
前記移動前画像格納手段に格納された移動前画像に基づいて前記カメラの姿勢を推定する第1の姿勢推定手段と、
車両を直線状に所定距離移動させた後に前記カメラで撮影された前記キャリブレーションシートの画像を移動後画像として格納する移動後画像格納手段と、
前記移動後画像格納手段に格納された移動後画像に基づいて前記カメラの姿勢を推定する第2の姿勢推定手段と、
前記第1および第2の姿勢推定手段による推定結果に基づいて前記キャリブレーションシートの所定位置からのずれ量を算出するシートずれ量算出手段と、
前記第1および第2のカメラ姿勢推定手段の少なくとも一方によって推定された姿勢推定値と、前記シートずれ量算出手段によって算出されたずれ量とに基づいて、前記カメラの姿勢を決定するカメラ姿勢決定手段と、
前記移動前画像を取得してから前記移動後画像を取得するまでの車両の移動が直線状になされたか否かを判定する直線移動判定手段と、
を備えることを特徴とする車載カメラ姿勢検出装置。
An on-vehicle camera posture detection device that photographs a plurality of calibration indices included in a calibration sheet arranged around a vehicle with a camera mounted on the vehicle, and detects the posture of the camera based on the obtained image,
A pre-movement image storage means for storing an image of the calibration sheet photographed by the camera as a pre-movement image;
First posture estimation means for estimating the posture of the camera based on the pre-movement image stored in the pre-movement image storage means;
A post-movement image storage means for storing, as a post-movement image, an image of the calibration sheet taken by the camera after moving the vehicle in a straight line a predetermined distance;
Second posture estimation means for estimating the posture of the camera based on the post-movement image stored in the post-movement image storage means;
Sheet deviation amount calculating means for calculating a deviation amount of the calibration sheet from a predetermined position based on estimation results by the first and second posture estimating means;
Camera posture determination for determining the posture of the camera based on the posture estimated value estimated by at least one of the first and second camera posture estimating means and the deviation amount calculated by the sheet deviation amount calculating means. Means,
Linear movement determination means for determining whether or not the movement of the vehicle from the acquisition of the pre-movement image to the acquisition of the post-movement image has been made linear;
A vehicle-mounted camera posture detection device comprising:
請求項1において、
前記カメラによるレンズを通した撮影によって、中央に対して周辺が歪んだ画像が得られ、
車両の移動の前後および中間位置に対応する複数箇所において前記カメラの撮影によって得られた複数の画像に対して歪み補正を行う歪み補正手段をさらに備え、
前記直線移動判定手段は、前記歪み補正手段によって歪みが除去された後の複数の画像に基づいて、車両の移動が直線状になされたか否かを判定することを特徴とする車載カメラ姿勢検出装置。
In claim 1,
By photographing through the lens with the camera, an image with a distorted periphery with respect to the center is obtained,
Further comprising distortion correction means for performing distortion correction on a plurality of images obtained by photographing with the camera at a plurality of locations corresponding to before and after movement of the vehicle and an intermediate position;
The in-vehicle camera attitude detection device, wherein the linear movement determination unit determines whether or not the vehicle has moved linearly based on a plurality of images after the distortion is removed by the distortion correction unit. .
請求項2において、
前記直線移動判定手段は、歪み除去後の前記複数の画像について、前記キャリブレーションシートの同一箇所に対応する特徴点を抽出し、これら複数の画像に含まれる複数の特徴点のそれぞれが直線状に配置されている場合に、車両の移動が直線状になされたものと判定することを特徴とする車載カメラ姿勢検出装置。
In claim 2,
The linear movement determination unit extracts feature points corresponding to the same part of the calibration sheet for the plurality of images after distortion removal, and each of the plurality of feature points included in the plurality of images is linear. An on-vehicle camera attitude detection device that determines that the movement of a vehicle is linear when it is arranged.
請求項3において、
前記歪み補正手段によって歪み補正が行われた画像を、前記複数の特徴点とともに表示装置に表示する表示処理手段をさらに備えることを特徴とする車載カメラ姿勢検出装置。
In claim 3,
An in-vehicle camera attitude detection device further comprising display processing means for displaying an image on which distortion correction has been performed by the distortion correction means together with the plurality of feature points on a display device.
請求項4において、
前記表示処理手段によって前記表示装置に表示される画像には、前記複数の特徴点の中の両端を通る直線状の補助線が含まれていることを特徴とする車載カメラ姿勢検出装置。
In claim 4,
The on-vehicle camera attitude detection device characterized in that the image displayed on the display device by the display processing means includes a linear auxiliary line passing through both ends of the plurality of feature points.
請求項1〜5のいずれかにおいて、
前記直線移動判定手段は、車両の移動が直線状になされなかった旨の判定を行ったときに、車両の運転者に対して通知を行うことを特徴とする車載カメラ姿勢検出装置。
In any one of Claims 1-5,
The in-vehicle camera attitude detection device characterized in that the linear movement determination means notifies the driver of the vehicle when it is determined that the vehicle has not been moved linearly.
JP2011131337A 2011-06-13 2011-06-13 On-vehicle camera posture detection device Withdrawn JP2013005032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011131337A JP2013005032A (en) 2011-06-13 2011-06-13 On-vehicle camera posture detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011131337A JP2013005032A (en) 2011-06-13 2011-06-13 On-vehicle camera posture detection device

Publications (1)

Publication Number Publication Date
JP2013005032A true JP2013005032A (en) 2013-01-07

Family

ID=47673180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011131337A Withdrawn JP2013005032A (en) 2011-06-13 2011-06-13 On-vehicle camera posture detection device

Country Status (1)

Country Link
JP (1) JP2013005032A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190140202A (en) * 2018-06-11 2019-12-19 세메스 주식회사 Camera posture estimation method and substrate treating apparatus
WO2021192373A1 (en) * 2020-03-27 2021-09-30 株式会社Jvcケンウッド Display control device, display control method, and program
JP2021158540A (en) * 2020-03-27 2021-10-07 株式会社Jvcケンウッド Display control device, display control method and program
JP2021154887A (en) * 2020-03-27 2021-10-07 株式会社Jvcケンウッド Display controller, display control method and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190140202A (en) * 2018-06-11 2019-12-19 세메스 주식회사 Camera posture estimation method and substrate treating apparatus
KR102075686B1 (en) 2018-06-11 2020-02-11 세메스 주식회사 Camera posture estimation method and substrate treating apparatus
WO2021192373A1 (en) * 2020-03-27 2021-09-30 株式会社Jvcケンウッド Display control device, display control method, and program
JP2021158540A (en) * 2020-03-27 2021-10-07 株式会社Jvcケンウッド Display control device, display control method and program
JP2021154887A (en) * 2020-03-27 2021-10-07 株式会社Jvcケンウッド Display controller, display control method and program
JP7459608B2 (en) 2020-03-27 2024-04-02 株式会社Jvcケンウッド Display control device, display control method and program
JP7459607B2 (en) 2020-03-27 2024-04-02 株式会社Jvcケンウッド Display control device, display control method and program

Similar Documents

Publication Publication Date Title
JP6058256B2 (en) In-vehicle camera attitude detection apparatus and method
JP4803450B2 (en) On-vehicle camera calibration device and vehicle production method using the device
CN108805934B (en) External parameter calibration method and device for vehicle-mounted camera
JP4803449B2 (en) On-vehicle camera calibration device, calibration method, and vehicle production method using this calibration method
JP6354425B2 (en) In-vehicle camera mounting attitude detection method and apparatus
JP4751939B2 (en) Car camera calibration system
KR20110116243A (en) Calibration device, method, and program for onboard camera
US20090299684A1 (en) Method for calibrating cameras installed on vehicle
US20130002861A1 (en) Camera distance measurement device
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
KR101583663B1 (en) Method for generating calibration indicator of camera for vehicle
CN112489136B (en) Calibration method, position determination device, electronic equipment and storage medium
JP5959311B2 (en) Data deriving apparatus and data deriving method
JP2008102620A (en) Image processing device
JP2013005032A (en) On-vehicle camera posture detection device
JP5173551B2 (en) Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto
US20160121806A1 (en) Method for adjusting output video of rear camera for vehicles
KR101926258B1 (en) Method of automatic calibration of AVM system
CN113015884B (en) Image processing apparatus and image processing method
EP2942951A1 (en) Image calibration
JP2013024712A (en) Method and system for calibrating multiple camera
KR102477480B1 (en) Apparatus for calibrating for around view camera and method thereof
JP2018136739A (en) Calibration device
EP3543951A1 (en) Image processing device, driving support system, and image processing method
JP2013005035A (en) On-vehicle camera posture detection device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902