JP7162489B2 - CALIBRATION DEVICE AND CALIBRATION METHOD - Google Patents
CALIBRATION DEVICE AND CALIBRATION METHOD Download PDFInfo
- Publication number
- JP7162489B2 JP7162489B2 JP2018192084A JP2018192084A JP7162489B2 JP 7162489 B2 JP7162489 B2 JP 7162489B2 JP 2018192084 A JP2018192084 A JP 2018192084A JP 2018192084 A JP2018192084 A JP 2018192084A JP 7162489 B2 JP7162489 B2 JP 7162489B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- camera parameters
- image
- camera
- bird
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、キャリブレーション装置及びキャリブレーション方法に関する。 The present invention relates to a calibration device and a calibration method.
車両に、車両の周囲を撮影する複数のカメラを設置し、各カメラで撮影された画像をそれぞれ、車両の上方から見下ろした画像である俯瞰画像に変換し、さらに、これら複数のカメラで撮影された複数の画像に基づく複数の俯瞰画像を1つに繋いだ合成俯瞰画像を生成することが行なわれている。このように形成された合成俯瞰画像は、1つの画像で、自車両の周囲全体の景色を表すことができる。 A vehicle is equipped with a plurality of cameras that capture the surroundings of the vehicle. The images captured by each camera are converted into an overhead image, which is an image looking down from above the vehicle. A synthetic bird's-eye view image is generated by connecting a plurality of bird's-eye images based on a plurality of images obtained from the above. The composite bird's-eye view image formed in this way can express the scenery of the entire surroundings of the own vehicle with one image.
ここで、各カメラで撮影された画像を俯瞰画像を生成する場合、各カメラの取り付け姿勢(向き)を特定するカメラパラメータが必要になる。各カメラの姿勢は設計値に基づいて予め設定されているが、実際の車両においては、誤差等が生じる場合がある。このような誤差が生じたまま、設計値に基づいたカメラパラメータで合成俯瞰画像が生成された場合、その誤差に応じて、俯瞰画像同士の繋ぎの部分にズレが生じたり、本来前後方向に延びるべき直線が傾斜した直線になったりして、精度のよい合成俯瞰画像を生成することができない。 Here, when a bird's-eye view image is generated from images captured by each camera, camera parameters that specify the mounting posture (orientation) of each camera are required. The orientation of each camera is set in advance based on design values, but errors may occur in actual vehicles. When a synthetic bird's-eye view image is generated with camera parameters based on design values while such an error occurs, depending on the error, a gap may occur in the connecting part of the bird's-eye view images, or the part that originally extends in the front-back direction may occur. The power straight line becomes a slanted straight line, and an accurate synthetic bird's-eye view image cannot be generated.
このような問題を解決するため、キャリブレーション(校正)と称される、カメラパラメータの補正が行われる。このキャリブレーションは、例えば、車両を製造した工場の生産ライン等において、車両に人が乗っていないか又は完成車の検査員が1人だけ運転席に乗っていて、かつ荷物を積載していない、という特定の積載状態で行われる。 In order to solve such problems, correction of camera parameters called calibration is performed. This calibration is performed, for example, on the production line of the factory where the vehicle was manufactured, when no one is on the vehicle or only one inspector of the finished vehicle is in the driver's seat and no luggage is loaded. , in a particular loading state.
しかし、実際にユーザが車両を使用する際には、乗車人数や乗員が座る位置、荷物の積載有無等によって、車両の積載状態は変化する。車両の姿勢は積載状態に依存するが、車両の姿勢が変化することにより、合成俯瞰画像の投影面である路面に対するカメラの姿勢が変化する。すなわち、車両姿勢が変化しても、車両に対するカメラパラメータは変化しないが、キャリブレーションを行ったときの車両姿勢とは異なる場合、合成俯瞰画像に上述したズレ等が生じ得る。 However, when the user actually uses the vehicle, the loading condition of the vehicle changes depending on the number of passengers, the positions of the passengers, the presence or absence of luggage, and the like. The posture of the vehicle depends on the loading state, and the change in the posture of the vehicle changes the posture of the camera with respect to the road surface on which the synthetic bird's-eye view image is projected. That is, even if the vehicle attitude changes, the camera parameters for the vehicle do not change, but if the vehicle attitude differs from the vehicle attitude when calibration was performed, the above-described shift or the like may occur in the synthesized bird's-eye view image.
そこで、実際の車両の使用状態である車両の走行中に、カメラで撮影された画像に基づいて、キャリブレーションを行う技術が開示されている(例えば、特許文献1参照)。この技術によれば、実際の車両の使用状態に応じた車両姿勢でのキャリブレーションを行うため、その使用中の合成俯瞰画像にズレ等が生じるのを防止して、精度のよい合成俯瞰画像を得ることができる。 Therefore, a technique of performing calibration based on an image captured by a camera while the vehicle is running, which is the actual usage condition of the vehicle, has been disclosed (see, for example, Patent Document 1). According to this technology, since the calibration is performed with the vehicle attitude according to the actual use condition of the vehicle, it is possible to prevent the synthetic bird's-eye view image from being deviated while the vehicle is in use, and to produce an accurate synthetic bird's-eye view image. Obtainable.
上述した特許文献1に記載の技術は、車両の周囲に、前後方向に直線状に延びる線(車線を区切る白線等)が存在し、車両の前後部に設けられた前部カメラの撮影領域と後部カメラの撮影領域にそれぞれ2本の直線の画像が写り、さらに、車両の各側部に設けられた右側部カメラの撮影領域と左側部カメラの撮影領域にそれぞれ1本の直線の画像が写ることが必要である。 In the technique described in Patent Document 1 described above, lines extending linearly in the front-rear direction (white lines separating lanes, etc.) exist around the vehicle, and the imaging area of the front cameras provided at the front and rear of the vehicle. Two straight images are captured in the photographing area of the rear camera, and one straight line image is captured in the photographing area of the right side camera and the photographing area of the left side camera provided on each side of the vehicle. It is necessary.
したがって、特許文献1に記載のキャリブレーションは、そのような直線が撮影領域に存在しない状況で適用することができない。 Therefore, the calibration described in Patent Document 1 cannot be applied in situations where such a straight line does not exist in the imaging area.
本発明は上記事情に鑑みなされたものであり、車両の前後方向に延びた直線が存在しない環境下であっても、カメラパラメータを補正することができるキャリブレーション装置及びキャリブレーション方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a calibration device and a calibration method capable of correcting camera parameters even in an environment where there is no straight line extending in the longitudinal direction of the vehicle. With the goal.
本発明の第1は、車両の異なる位置にそれぞれ設置された複数の撮像装置により、互いに重複した領域を撮影範囲に含んで撮影された画像をそれぞれ俯瞰画像に変換する画像変換部と、前記複数の撮像装置ごとの、初期状態の車両姿勢における前記車両に対する姿勢に対応して予め設定されたカメラパラメータ及び前記車両の複数の姿勢にそれぞれ対応した複数の車両姿勢パラメータを記憶したパラメータ記憶部と、複数の前記車両姿勢パラメータのそれぞれと前記カメラパラメータとを合成した、車両姿勢を加味した複数の合成カメラパラメータを生成し、複数の前記合成カメラパラメータに基づいて、前記重複した領域のうち1つの重複した領域を含む2つの画像を前記画像変換部によりそれぞれ俯瞰画像に変換したときの、前記1つの重複した領域の類似度をそれぞれ求め、複数の前記合成カメラパラメータに対応して得られた複数の前記類似度のうち最も高い類似度に対応した1つの前記車両姿勢パラメータを特定し、特定された1つの前記車両姿勢パラメータと複数の前記撮像装置にそれぞれ対応した前記カメラパラメータとをそれぞれ合成した前記合成カメラパラメータを、前記画像変換部による前記俯瞰画像に変換するカメラパラメータとして設定するパラメータ設定部と、を備えたキャリブレーション装置である。 A first aspect of the present invention is an image conversion unit that converts images captured by a plurality of imaging devices each having an overlapping area in the imaging range into a bird's-eye view image by a plurality of imaging devices installed at different positions of a vehicle, and a parameter storage unit storing camera parameters set in advance corresponding to the attitude of the vehicle in the vehicle attitude of the initial state and a plurality of vehicle attitude parameters respectively corresponding to the plurality of attitudes of the vehicle, for each imaging device of generating a plurality of synthesized camera parameters that take into account the vehicle orientation by synthesizing each of the plurality of vehicle orientation parameters and the camera parameters; The similarity of each of the overlapped regions is obtained when the two images including the overlapped regions are converted into bird's-eye images by the image conversion unit, and a plurality of obtained corresponding to the plurality of synthesized camera parameters are calculated. One vehicle attitude parameter corresponding to the highest similarity among the similarities is identified, and the identified one vehicle attitude parameter and the camera parameters respectively corresponding to the plurality of imaging devices are synthesized. and a parameter setting unit that sets a synthesized camera parameter as a camera parameter for converting into the bird's-eye view image by the image conversion unit.
本発明の第2は、車両の異なる位置にそれぞれ設置された複数の撮像装置により、互いに重複した領域を撮影範囲に含んで撮影された画像をそれぞれ俯瞰画像に変換する、前記複数の撮像装置ごとのカメラパラメータを校正するに際して、前記車両の複数の姿勢にそれぞれ対応した複数の車両姿勢パラメータのそれぞれと前記複数の撮像装置ごとの、初期状態の車両姿勢における前記車両に対する姿勢に対応して予め設定されたカメラパラメータとを合成した、車両姿勢を加味した複数の合成カメラパラメータを生成し、複数の前記合成カメラパラメータに基づいて、前記重複した領域のうち1つの重複した領域を含む2つの画像を前記画像変換部によりそれぞれ俯瞰画像に変換したときの、前記1つの重複した領域の類似度をそれぞれ求め、複数の前記合成カメラパラメータに対応して得られた複数の前記類似度のうち最も高い類似度に対応した1つの前記車両姿勢パラメータを特定し、特定された1つの前記車両姿勢パラメータと複数の前記撮像装置にそれぞれ対応した前記カメラパラメータとをそれぞれ合成した前記合成カメラパラメータを、前記俯瞰画像に変換するカメラパラメータとして設定するキャリブレーション方法である。 A second aspect of the present invention is for each of the plurality of imaging devices, wherein images captured by a plurality of imaging devices, each of which includes an overlapping area in its imaging range, are captured by a plurality of imaging devices installed at different positions of the vehicle, and are each converted into a bird's eye view image. When calibrating the camera parameters of , each of a plurality of vehicle attitude parameters respectively corresponding to a plurality of attitudes of the vehicle and each of the plurality of imaging devices are set in advance corresponding to the attitude of the vehicle in the initial state of the vehicle attitude generating a plurality of synthesized camera parameters that take into account the vehicle posture by synthesizing the obtained camera parameters, and generating two images including one of the overlapping regions based on the plurality of synthesized camera parameters; Each of the similarities of the one overlapped area is obtained when each of the overlapped areas is converted into a bird's-eye view image by the image conversion unit, and the highest similarity among the plurality of the similarities obtained corresponding to the plurality of the synthetic camera parameters. one vehicle attitude parameter corresponding to the angle of view is specified, and the synthesized camera parameters obtained by synthesizing the specified one vehicle attitude parameter and the camera parameters respectively corresponding to the plurality of imaging devices are displayed in the bird's-eye view image. It is a calibration method that is set as a camera parameter to be converted to .
本発明に係るキャリブレーション装置及びキャリブレーション方法によれば、車両の前後方向に延びた直線が存在しない環境下であっても、カメラパラメータを補正することができる。 According to the calibration device and calibration method of the present invention, camera parameters can be corrected even in an environment where there is no straight line extending in the longitudinal direction of the vehicle.
以下、本発明に係るキャリブレーション装置及びキャリブレーション方法の具体的な実施の形態について、図面を参照して説明する。 Hereinafter, specific embodiments of a calibration device and a calibration method according to the present invention will be described with reference to the drawings.
<車両周囲監視システム>
図1は、本発明に係るキャリブレーション装置及びキャリブレーション方法を実施する一例であるカメラECU30を含む車両周囲監視システムを示すブロック図、図2は車載カメラ10を構成する各カメラ11~14の設置位置と撮影範囲を模式的に示した平面図である。図1に示した車両周囲監視システムは、車両200(以下、自車200ともいう)に搭載された車載カメラ10(前部カメラ11、後部カメラ12、右側部カメラ13、左側部カメラ14)、自車200の走行速度を検出する車速センサ20と、車載カメラ10で撮影された画像に基づいて、自車200の周囲を含む合成俯瞰画像APを生成するカメラECU30と、合成俯瞰画像APを表示する映像表示装置90と、を備えている。
<Vehicle Surrounding Monitoring System>
FIG. 1 is a block diagram showing a vehicle surrounding monitoring system including a
カメラ11~14は、図2に示すように、自車200の異なる位置に、それぞれ自車200に対する姿勢(向き)に対応して予め設定されたカメラパラメータにしたがって設置されている。各カメラパラメータは、車両の初期状態の積載状態において設定されたものであり、ピッチ角αcam1(カメラ10の光軸に直交する横軸回りの回転角度)、ロール角βcam1(カメラ10の光軸回りの回転角度)、ヨー角γcam1(カメラ10の光軸に直交する縦軸回りの回転角度)により規定されている。
As shown in FIG. 2, the
車両の初期状態の積載状態は、例えば、車両200が空車の積載状態(乗員0人で、かつ荷物を積載していない状態)であり、初期状態におけるカメラパラメータは、例えば、車両が製造された工場における完成検査の工程で行われたキャリブレーションにより設定され、後述するパラメータ記録装置34に記憶されている。
The initial loading state of the vehicle is, for example, the empty loading state of the vehicle 200 (the state in which there are no passengers and no cargo is loaded), and the camera parameters in the initial state are, for example, It is set by calibration performed in the final inspection process at the factory and stored in the
前部カメラ11は、具体的には自車200の前端部に取り付けられていて自車200の前方領域(F)を撮影範囲とする前方画像PO1を撮影する。後部カメラ12は、具体的には自車200の後端部に取り付けられていて自車200の後方領域(R)を撮影範囲とする後方画像PO2を撮影する。右側部カメラ13は、具体的には自車200の右ドアミラー付近に取り付けられていて自車200の右側方領域(SR)を撮影範囲とする右側方画像PO3を撮影する。左側部カメラ14は、具体的には自車200の左ドアミラー付近に取り付けられていて自車200の左側方領域(SL)を撮影範囲とする左側方画像PO4を撮影する。
The
各カメラ11~14はいずれも広角レンズを備えていて、略180[度]という広い画角の撮影範囲を有している。そして、図2に示すように、前方画像PO1と右側方画像PO3とは、自車200の右前方の領域において重複した領域を含み、前方画像PO1と右側方画像PO3とはいずれも、その重複した領域の画像である右前方画像PO13を含んでいる。同様に、前方画像PO1と左側方画像PO4とは、自車200の左前方の領域において重複した領域を含み、前方画像PO1と左側方画像PO4とはいずれも、その重複した領域の画像である左前方画像PO14を含んでいる。
Each of the
自車200の後方についても同様であり、後方画像PO2と右側方画像PO3とは、自車200の右後方の領域において重複した領域を有し、後方画像PO2と右側方画像PO3とはいずれも、その重複した領域の画像である右後方画像PO23を有している。後方画像PO2と左側方画像PO4とは、自車200の左後方の領域において重複した領域を有し、後方画像PO2と左側方画像PO4とはいずれも、その重複した領域の画像である左後方画像PO24を有している。
The same applies to the rear of
なお、図2は、自車200の上方から見た平面視として俯瞰して得られる画像であるため、図2においては、前方画像PO1を俯瞰画像に変換して得られた前方俯瞰画像P1に対してカッコ書きで記載している。後方画像PO2、右側方画像PO3及び左側方画像PO4についても同様に、それぞれ対応する後方俯瞰画像P2、右側方俯瞰画像P3、左側方俯瞰画像P4に対してカッコ書きで記載している。実際の前方画像PO1、後方画像PO2、右側方画像PO3及び左側方画像PO4は、車載カメラ10からの距離が長くなるにしたがって被写体の像が小さくなる歪を有している。
Since FIG. 2 is a bird's-eye view image obtained as a plan view seen from above the
<カメラECU>
カメラECU30は、演算処理装置31と、パラメータ記録装置34(パラメータ記憶部)と、I/Oポート37,38,39と、を備えている。I/Oポート37は、各カメラ11~14から前方画像PO1を表す画像信号、後方画像PO2を表す画像信号、右側方画像PO3を表す画像信号及び左側方画像PO4を表す画像信号を、演算処理装置31に入力する端子、I/Oポート38は、車速センサ20から自車200の走行速度を表す車速信号を、演算処理装置31に入力する端子、I/Oポート39は、演算処理装置31から演算処理装置31で生成された合成俯瞰画像APを表す画像信号を、映像表示装置90に出力する端子である。
<Camera ECU>
The
パラメータ記録装置34は、カメラ11~14ごとに対応したカメラパラメータ(4つ)と、自車200の複数の車両姿勢をそれぞれ特定する、予め設定された複数の車両姿勢パラメータと、を記憶している。
The
図3,4は本実施形態の車両周囲監視システムにおいて用いる座標系を説明する図であり、図3は世界座標系及び車両座標系を示す図であり、図4はカメラ座標系を示す図である。 3 and 4 are diagrams for explaining the coordinate system used in the vehicle surrounding monitoring system of this embodiment, FIG. 3 is a diagram showing the world coordinate system and the vehicle coordinate system, and FIG. 4 is a diagram showing the camera coordinate system. be.
世界座標系及び車両座標系は、左手系座標かつ左ねじ回転方向で定義され、図3に示すように、x軸を左右方向(右を正方向)、y軸を前後方向(後方を正方向)、z軸を鉛直方向(上方を正方向)とし、原点Oを車両200の前輪車軸の中心とする。車両のオイラー角定義において、回転順序は、車両200のロール角→ピッチ角→ヨー角の順序(z-x-y)である。
The world coordinate system and the vehicle coordinate system are defined by left-handed coordinates and a left-handed screw rotation direction, and as shown in FIG. ), the z-axis is the vertical direction (upward is the positive direction), and the origin O is the center of the front wheel axle of the
カメラ座標系は、左手系座標かつ左ねじ回転方向で定義され、図4に示すように、x軸を左右方向(車載カメラ10の設置状態での上面に向かって右方向を正方向)、y軸を縦方向(上面を正方向)、z軸をカメラ光軸方向(前方を負方向)とする。車載カメラ10のオイラー角定義において、回転順序は、車両200のロール角→ピッチ角→ヨー角の順序(z-x-y)である。 The camera coordinate system is defined by left-handed system coordinates and a left-handed screw rotation direction, and as shown in FIG. Let the axis be the vertical direction (upward direction is the positive direction), and the z-axis be the camera optical axis direction (the forward direction be the negative direction). In the Euler angle definition of the vehicle-mounted camera 10, the order of rotation is the order of roll angle→pitch angle→yaw angle of the vehicle 200 (zxy).
ここで、車両姿勢パラメータは、車両200が初期状態の積載状態(乗員0人で、かつ荷物を積載していない状態)で水平面上におかれているときを基準として、車両200の車幅方向に延びたx軸回りの回転角度を表すピッチ角αcarと、車両200の前後方向に延びたy軸回りの回転角度を表すロール角γcarと、車両200の沈み込み量Zcar_szとの組み合わせによって特定される。
Here, the vehicle posture parameter is the vehicle width direction of the
つまり、車両姿勢パラメータは、基準となる上記積載状態では、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szのいずれも0(ゼロ)であり、基準となる上記積載状態からの変動したピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szの組み合わせによって、車両姿勢パラメータが設定されている。 In other words, the vehicle posture parameters are such that the pitch angle αcar, the roll angle γcar, and the amount of subduction Zcar_sz are all 0 (zero) in the above-described reference loading state, and the pitch angle αcar , the roll angle γcar and the amount of subsidence Zcar_sz, the vehicle attitude parameters are set.
車両姿勢は、車両200に乗車する乗員の人数、乗員の体重(大人、子供の別を含む)、各乗員の着席場所、積載する荷物の重量、積載場所などによって変化する。パラメータ記録装置34が記憶している複数の車両姿勢パラメータは、これら乗員の人数等及び荷物の重量等などの想定される複数の積載状態にそれぞれ対応するピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szの組み合わせにより設定されており、具体的には、パラメータ記録装置34は、例えば50個の車両姿勢パラメータを記憶している。
The vehicle posture changes depending on the number of passengers on the
パラメータ記録装置34に記憶されているカメラパラメータは、各カメラ11~14にそれぞれ対応し、合計4つである。各カメラパラメータは、車両200に対する相対的な姿勢であるため、車両姿勢が変化しても変化することはない。
The camera parameters stored in the
演算処理装置31は、画像変換部32と、パラメータ設定部33と、を備えている。画像変換部32は、I/Oポート37を介して各カメラ11~14から入力された、各カメラ11~14で撮影された前方画像PO1、後方画像PO2、右側方画像PO3、左側方画像PO4をそれぞれ、自車200の上方から平面視として俯瞰して得られる前方俯瞰画像P1、後方俯瞰画像P2、右側方俯瞰画像P3、左側方俯瞰画像P4に変換する。
The
ここで、演算処理装置31は、各画像PO1~PO4から対応する俯瞰画像P1~P4を生成するに際して、パラメータ記録装置34に記憶されている、初期的に設定された各カメラパラメータに基づいて画像の変換処理を行うが、初期状態とは異なる積載状態に対応した車両姿勢でのキャリブレーションを行うときは、パラメータ記録装置34に記憶されている、初期的に設定された各カメラパラメータと例えば50個の互いに異なる車両姿勢パラメータとをそれぞれ合成した合成カメラパラメータに基づいて画像の変換処理を行うことで、車両姿勢に応じた新たなキャリブレーションを行う。
Here, when generating the bird's-eye view images P1 to P4 corresponding to the images PO1 to PO4, the
新たなキャリブレーションを行う場合、具体的には、パラメータ設定部33が、パラメータ記録装置34に記憶されている初期状態でのカメラパラメータと50個の車両姿勢パラメータとをそれぞれ合成して、カメラ11~14ごとに50個の合成カメラパラメータを生成する。50個の合成カメラパラメータは、車両200の積載状態に応じて想定される50個の車両姿勢を加味した画像変換のためのカメラパラメータである。
Specifically, when performing new calibration, the
なお、本実施形態では、後述するように、前方俯瞰画像P1と右側方俯瞰画像P3のみを対象として類似度を評価する。したがって、パラメータ設定部33は、前方画像PO1を撮像する前部カメラ11のカメラパラメータと50個の車両姿勢パラメータとをそれぞれ合成して、前部カメラ11用として、50個の合成カメラパラメータを生成し、右側方画像PO3を撮像する右側部カメラ13のカメラパラメータと50個の車両姿勢パラメータとをそれぞれ合成して、右側部カメラ13用として、50個の合成カメラパラメータを生成する。
In this embodiment, as will be described later, similarity is evaluated only for the forward bird's-eye image P1 and the right side bird's-eye image P3. Therefore, the
次いで、画像変換部32が、パラメータ設定部33により生成された50個の合成カメラパラメータに基づいて、4つの重複した領域(右前方画像PO13の領域、左前方画像PO14の領域、右後方画像PO23の領域、左後方画像PO24の領域)のうち1つの、例えば右前方画像PO13の領域を含む2つの画像(前方画像PO1と右側方画像PO3)をそれぞれ前方俯瞰画像P1、右側方俯瞰画像P3に変換する。
Next, based on the 50 synthetic camera parameters generated by the
そして、パラメータ設定部33は、前部カメラ11用に生成された合成カメラパラメータごとに得られた前方俯瞰画像P1における右前方俯瞰画像P13と、右側部カメラ13用に生成された合成カメラパラメータごとに得られた右側方俯瞰画像P3における右前方俯瞰画像P13との類似度をそれぞれ求める。類似度を求めるときは、前方俯瞰画像P1と右側方俯瞰画像P3とで、同一の車両姿勢パラメータに対応した合成パラメータで形成されたものを対象とする。類似度は、画像の類似度であり、2つの右前方俯瞰画像P13間での、画素値(信号値)の分布で形成されたパターンの類似している程度である。
Then, the
なお、類似度は、右前方俯瞰画像P13の全体を対象として求めてもよいが、例えば図2に示した右前方俯瞰画像P13の一部分の領域P13a(以下、一部領域P13aという)のみを対象として求めてもよい。このように、一部領域P13aのみを対象にして類似度を求めた方が、類似度の算出に要する演算の負荷を低減することができる。一部領域P13aは、図2に示した矩形の領域に限定されず、円形の領域や楕円形の領域であってもよいし、その他の多角形の領域であってもよい。 The degree of similarity may be obtained for the entire right front bird's-eye view image P13. can be obtained as In this way, obtaining the degree of similarity only for the partial region P13a can reduce the computational load required to calculate the degree of similarity. The partial area P13a is not limited to the rectangular area shown in FIG. 2, and may be a circular area, an elliptical area, or other polygonal areas.
また、一部領域P13aは、例えば、自車200の車幅方向に沿った寸法(画素数)と自車200の前後方向に沿った寸法(画素数)とが同じ矩形領域であることが好ましいが、そのような矩形領域に限定されない。また、一部領域P13aは、その内部に少なくとも8個の画素を含むものであればよい。
Further, the partial area P13a is preferably a rectangular area whose dimension (the number of pixels) along the vehicle width direction of the
また、パラメータ設定部33は、例えば、前方俯瞰画像P1における一部領域P13aと右側方俯瞰画像P3における一部領域P13aとの間で対応する画素値(信号値)のSSD(Sum of Squared Difference:差の2乗和)又はSAD(Sum of Absolute Difference:差の絶対値和)を評価値Sとして、類似度を評価する。したがって、パラメータ設定部33は、評価値Sが小さくなるにしたがって類似度が高く、評価値Sが大きくなるにしたがって類似度が低いと判定する。
In addition, the
そして、パラメータ設定部33は、50個の車両姿勢パラメータにそれぞれ対応した合成カメラパラメータごとに得られた類似度の評価値Sが最も小さい(類似度が最も高い)合成カメラパラメータに対応した1つの車両姿勢パラメータを特定する。この特定された車両姿勢パラメータが、そのときの車両200の姿勢を表すものということができる。
Then, the
パラメータ設定部33は、この特定された車両姿勢パラメータを、各カメラ11~14のカメラパラメータとそれぞれ合成して得られた4つの合成カメラパラメータを、パラメータ記録装置34に記憶させる。演算処理装置31は、その後に新たなキャリブレーションが行なわれるまでは、画像変換部32による各画像PO1~PO4を俯瞰画像P1~P4に画像変換し合成俯瞰画像APを生成するに際して、パラメータ記録装置34に記憶された合成カメラパラメータに基づいて行う。
The
本実施形態のカメラECU30は、車両姿勢が初期状態とは異なる車両姿勢となったときも、その車両姿勢に適切に対応したキャリブレーションにより、精度のよい合成俯瞰画像APを生成することができる。
The
なお、類似度を評価するに際して、上述した例では、右前方俯瞰画像P13の領域を適用したが、本発明に係るキャリブレーション装置及びキャリブレーション方法は、類似度を評価する領域として、右前方俯瞰画像P13の領域以外の他の重複領域(例えば、左前方俯瞰画像P14の領域、右後方俯瞰画像P23の領域、左後方俯瞰画像P24の領域)を適用してもよい。 In the example described above, when evaluating the degree of similarity, the region of the right front bird's-eye view image P13 is used. Other overlapping regions than the region of the image P13 (for example, the region of the left front overhead image P14, the region of the right rear overhead image P23, and the region of the left rear overhead image P24) may be applied.
図5はカメラECU30の具体的な処理の流れを説明するフローチャートである。上述したカメラECU30の処理について、図5に示したフローチャートを参照して、より具体的に説明する。
FIG. 5 is a flowchart for explaining a specific processing flow of the
まず、車両の製造時の工場における出荷前検査や、車両を販売する販売会社での納車前検査等により初期状態でのカメラ11~14のキャリブレーションが行なわれる(ステップ101(S101))。この初期状態でのキャリブレーションは、空車でかつ荷物の積載が無い、という積載状態で行われる。パラメータ設定部33は、初期状態での車両姿勢を基準にしたキャリブレーションによりカメラ11~14ごとのカメラパラメータを設定し、パラメータ記録装置34に、設定した4つのカメラパラメータを記憶させる。
First, the
ここで、車両姿勢の変動として、車両200のピッチ角αcarの変動による回転行列Rcar_pitchは下記式(1)、車両200のロール角γcarの変動による回転行列Rcar_rollは下記式(2)、車両200の沈み込み量Zcar_szの変動による並進行列Tcar_szは下記式(3)によりそれぞれ定義される。
Here, as changes in the vehicle posture, the rotation matrix Rcar_pitch due to changes in the pitch angle αcar of the
式(1),(2)より、車両200のピッチ角αcar及びロール角γcarの変動による車両姿勢の変動を示す車両姿勢パラメータ回転行列Rcar_matは下記式(4)となる。車両姿勢パラメータ回転行列Rcar_mat及び車両200の沈み込み量Zcar_szの並進行列Tcar_szは、パラメータ記録装置34に記憶されている。
From the equations (1) and (2), the vehicle attitude parameter rotation matrix Rcar_mat representing the variation of the vehicle attitude due to the variation of the pitch angle αcar and the roll angle γcar of the
また、初期状態のキャリブレーションで設定された各カメラ11~14のカメラパラメータをピッチ角αcam1、ロール角βcam1、ヨー角γcam1とすると、カメラパラメータの回転行列Rcam1は下記式(5)で定義される。このカメラパラメータの回転行列Rcam1も、パラメータ記録装置34に記憶されている。
Further, when the camera parameters of the
演算処理装置31は、I/Oポート37を介して各カメラ11~14から入力された、各カメラ11~14で撮影された前方画像PO1、後方画像PO2、右側方画像PO3、左側方画像PO4をそれぞれ、自車200の上方から平面視として俯瞰して得られる前方俯瞰画像P1、後方俯瞰画像P2、右側方俯瞰画像P3、左側方俯瞰画像P4に変換する。ここで、演算処理装置31は、各俯瞰画像P1~P4を生成するに際して、パラメータ記録装置34に記憶されているカメラパラメータと車両姿勢パラメータとを合成した合成カメラパラメータに基づいて画像の変換処理を行う。
ここで、初期状態である基準の積載状態(初期のキャリブレーションを行う状態)では、ピッチ角αcar及びロール角γcarはいずれも0であるから、式(1),(2)はいずれも単位行列となり、式(4)も単位行列となる。また、初期状態である基準の積載状態(初期のキャリブレーションを行う状態)では、車両200の沈み込み量Zcar_szも0(ゼロ)であるから、式(3)の並進行列Tcar_szは零行列となる。したがって、初期状態でのキャリブレーションでは、カメラパラメータと車両姿勢パラメータとを合成した合成カメラパラメータは、結果的にカメラパラメータと同じになり、演算処理装置31は、カメラパラメータにしたがった画像変換により、俯瞰画像を生成する。
Here, since the pitch angle αcar and the roll angle γcar are both 0 in the reference loading state (initial calibration state), which is the initial state, both equations (1) and (2) are unit matrices Thus, equation (4) also becomes a unit matrix. In addition, in the reference loading state (initial calibration state), which is the initial state, the subduction amount Zcar_sz of the
自車200の実際の使用状態では、少なくとも運転者が運転席に着席するため、空車状態の初期状態に対して車両姿勢が変動する(S102)。また、自車200の実際の使用状態では、荷物等を積載することもあり、これによっても車両姿勢は変動する(S102)。車両姿勢の変動により、車載カメラ10で撮影された画像を俯瞰画像に変換するに際して、車両姿勢の変動を加味した新たなキャリブレーションでカメラパラメータを補正して俯瞰変換を行う必要がある。
In the actual use state of the
ここで、新たなキャリブレーションは、前述したように、カメラ11,13ごとに50個の合成カメラパラメータによってそれぞれ俯瞰画像P1,P3を生成し、類似度の評価値Sの大小関係を比較するという処理を行う。この新たなキャリブレーションは、自車200が停車している状態で行う。
Here, as described above, the new calibration is to generate overhead images P1 and P3 using 50 synthetic camera parameters for each of the
そこで、カメラECU30は、車速センサ20が検出した自車200の車速を取得し(S103)、自車200の車速が0(ゼロ)になるまで、すなわち、自車200が停車するのを待つ(S104)。
Therefore, the
自車200が停車すると(S104にてYES)、カメラECU30は、車載カメラ10から画像を取得する(S105)。自車200が停車するまでは、カメラECU30は、車載カメラ10の画像を取得しない(S104にてNO)。
When
自車200が停車してカメラECU30が車載カメラ10から画像を取得すると、カメラECU30は、パラメータ記録装置34に格納されている、想定される例えば50個の車両姿勢にそれぞれ対応した車両姿勢パラメータと各カメラパラメータとをそれぞれ合成した合成カメラパラメータを生成する。合成カメラパラメータは、車両姿勢パラメータの数に対応してカメラ11,13ごとに50個である。
When the
合成カメラパラメータの回転行列Rcam2は、下記式(6)で表される。 A rotation matrix Rcam2 of the combined camera parameters is represented by the following equation (6).
そして、カメラECU30の画像変換部32は、ステップ105(S105)で取得した画像に対して、各合成カメラパラメータによる画像変換により俯瞰画像P1,P3を生成する(S106)。パラメータ設定部33は、前方俯瞰画像P1における一部領域P13aを構成する画素の信号値及び右側方俯瞰画像P3における一部領域P13aを構成する画素の信号値をそれぞれ取得し(S107)、2つの一部領域P13a,P13aの類似度の評価値Sを算出する(S108)。評価値Sとしては例えばSADを適用するが、前述したようにSSDを適用してもよい。
Then, the
パラメータ設定部33は、50個の車両姿勢パラメータにそれぞれ対応した合成カメラパラメータごとに得られた一部領域P13aについてそれぞれ類似度の評価値Sを算出して、評価値S同士を大小比較し、評価値Sが最も小さい値となる合成カメラパラメータを特定する(S109)。
The
そして、パラメータ設定部33は、特定された合成カメラパラメータを構成している車両姿勢パラメータを特定し、特定された車両姿勢パラメータと、各カメラ11~14の初期状態でのカメラパラメータとをそれぞれ合成して得られた合成カメラパラメータを、パラメータ記録装置34に記憶させて(S110)、新たなキャリブレーションを終了する。
Then, the
ここで、ステップ109(S109)における評価値Sが最も小さくなる車両姿勢パラメータの特定方法の一例を説明する。 Here, an example of a method of specifying the vehicle posture parameter that minimizes the evaluation value S in step 109 (S109) will be described.
演算処理装置31は、式(6)で表された合成カメラパラメータの回転行列Rcam2を分解することにより、車両姿勢のピッチ角αcarとロール角γcarとが変動した後の合成カメラパラメータのピッチ角、ロール角、ヨー角という角度を算出することができる。この算出方法は公知のため、説明を省略する。
The
次に、車両姿勢パラメータの変化に伴って変化した合成カメラパラメータの並進成分の算出方法を示す。合成カメラパラメータの並進成分x,y,zのうち並進成分xと並進成分yは、車両姿勢が変動しても変動量は微小のため0(ゼロ)とする。一方、高さ方向の変動に対応した並進成分zについては微小とは言えないため算出対象とする。 Next, a method of calculating the translational component of the synthesized camera parameters that have changed with changes in the vehicle attitude parameters will be described. Of the translational components x, y, and z of the synthesized camera parameters, the translational component x and the translational component y are set to 0 (zero) because the amount of variation is minute even if the vehicle posture changes. On the other hand, the translational component z corresponding to the variation in the height direction cannot be said to be very small, so it is used as a calculation target.
車両姿勢が変動するときの回転中心の真値の座標は不明であるため、車両200のピッチ角αcarの回転中心をCcar_pitch(下記式(7))、ロール角γcarの回転中心をCcar_roll(下記式(8))とする。これらの回転中心の座標は必ずしも真値である必要はなく、回転中心Ccar_rollは、例えば前部カメラ11の位置又は車両200の車幅方向の中央を仮に回転中心とした仮値でもよい。
Since the coordinates of the true value of the rotation center when the vehicle attitude changes are unknown, the rotation center of the pitch angle αcar of the
また、車両姿勢の変動の並進行列をTcar_sz(上記式(3))、車両姿勢の変動前のカメラパラメータの並進行列をTcam1(下記式(9))、車両姿勢の変動後の合成カメラパラメータの並進行列をTcam2(下記式(10))、と定義すると、車両姿勢の変動後の合成カメラパラメータの並進行列Tcam2は、下記式(11)により求められる。 Further, Tcar_sz (formula (3) above) is the translation matrix of the variation in the vehicle attitude, Tcam1 (formula (9) below) is the translation matrix of the camera parameters before the variation in the vehicle attitude, and If the translation matrix is defined as Tcam2 (equation (10) below), the translation matrix Tcam2 of the synthesized camera parameters after the change in vehicle attitude is obtained by the following equation (11).
式(11)の右辺において、未知行列はRcar_pitch,Rcar_roll,Tcar_szである。したがって、これらの3つの行列が既知となれば、左辺の車両姿勢の変動後の合成カメラパラメータの並進行列Tcam2を求めることができる。これらの3つの行列は、ピッチ角αcar、ロール角γcar、沈み込み量Zcar_szを求めることで既知となる。 On the right side of equation (11), the unknown matrices are Rcar_pitch, Rcar_roll, Tcar_sz. Therefore, if these three matrices are known, it is possible to obtain the translation matrix Tcam2 of the synthesized camera parameters after the change in the vehicle attitude on the left side. These three matrices are known by obtaining the pitch angle αcar, the roll angle γcar, and the subduction amount Zcar_sz.
以上をまとめると、「車両姿勢の変動後の合成カメラパラメータの角度成分」は、ピッチ角αcarとロール角γcarとが既知となれば一意に特定することができ、「車両姿勢の変動後の合成カメラパラメータの並進成分(zのみ)」は、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szが既知となれば一意に特定することができる。 In summary, the "angle component of the synthesized camera parameters after the change in vehicle attitude" can be uniquely specified if the pitch angle αcar and the roll angle γcar are known. The translation component (only z) of the camera parameters can be uniquely specified if the pitch angle αcar, roll angle γcar, and sinking amount Zcar_sz are known.
次に、類似度の評価値Sが最も小さい車両姿勢に対応したピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szを特定する方法について説明する。これら3つの車両姿勢を表すパラメータは、最適化手法を用いて解を求める。 Next, a method of specifying the pitch angle αcar, the roll angle γcar, and the amount of subduction Zcar_sz corresponding to the vehicle posture with the smallest similarity evaluation value S will be described. These three vehicle attitude parameters are solved using an optimization technique.
上述したように、類似度の評価値Sが最も小さくなる車両姿勢パラメータを求めるため、最適化の評価関数は評価値Sに設定する。この評価関数は多峰性関数であるため、多峰性関数の大域的最適解を得られる手法として、例えば下記の3つのうちいずれか1つの手法を適用することができるが、本実施形態においては、例えば(1)のPSOの手法を適用した場合について説明する。
(1)PSO(Particle Swarm Optimization)
(2)ABC(Artificial Bee Colony)
(3)FA(Firefly Algorithm)
As described above, the evaluation function for optimization is set to the evaluation value S in order to obtain the vehicle posture parameter that minimizes the evaluation value S of the similarity. Since this evaluation function is a multi-peak function, any one of the following three methods can be applied as a method for obtaining the global optimum solution of the multi-peak function. For example, the case where the PSO technique of (1) is applied will be described.
(1) PSO (Particle Swarm Optimization)
(2) ABC (Artificial Bee Colony)
(3) FA (Firefly Algorithm)
PSOは、多次元の評価空間内に評価用粒子を配置し、更新を指定回数繰り返して最適解を求める手法である。粒子は、自身や他の粒子の評価結果に基づいて更新方法を決定する。最適な粒子数や更新回数は評価対象によって異なる。PSOの更新方法は以下の式(12),(13)で定義される。 PSO is a method of arranging particles for evaluation in a multi-dimensional evaluation space and repeating update a specified number of times to obtain an optimum solution. Particles decide how to update based on the evaluation results of themselves and other particles. The optimal number of particles and the number of updates differ depending on the evaluation target. The PSO update method is defined by the following equations (12) and (13).
ここで、xは粒子の現在位置を示す。本実施形態においては、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szがこの現在位置xに定義される。vは速度ベクトルであり、更新1回分の変化量が定義されている。iは粒子番号(※粒子数が100個の場合、i=1~100とナンバリングされる)。kは繰り返し回数である。wは慣性項であり、一般的に1.0より少ない値が定義される。c1,c2は重み付け用係数であり、一般的に1.0付近の値が定義される。r1,r2は0~1の間の乱数である。pbestは、その粒子個体がこれまで評価した中で最も最良な位置、gbestは、粒子全体がこれまで評価した中で最良の位置である。 Here, x indicates the current position of the particle. In this embodiment, the pitch angle αcar, the roll angle γcar, and the sinking amount Zcar_sz are defined at this current position x. v is a velocity vector, and the amount of change for one update is defined. i is the particle number (*If the number of particles is 100, i = 1 to 100). k is the number of iterations. w is the inertia term and is generally defined to be less than 1.0. c1 and c2 are weighting coefficients and are generally defined to have values around 1.0. r1 and r2 are random numbers between 0 and 1; pbest is the best position that the individual particle has evaluated so far, gbest is the best position that the whole particle has evaluated so far.
一例として、ピッチ角αcarのみに着目し最適解を求める。粒子の数を50個、更新回数を100回、ピッチ角αcarの評価空間範囲を-5.0[deg]~+5.0[deg]とする。この角度範囲は、車両姿勢として想定される角度範囲である。 As an example, the optimum solution is obtained by paying attention only to the pitch angle αcar. Assume that the number of particles is 50, the number of updates is 100, and the evaluation space range of the pitch angle α car is −5.0 [deg] to +5.0 [deg]. This angle range is an angle range assumed as the vehicle attitude.
まず、-5.0[deg]~+5.0[deg]の角度範囲で、互いに異なるピッチ角αcarをランダムに定義した粒子(現在位置x)を50個定義する。また、互いに異なる速度ベクトルvを0~1の範囲でランダムに50個定義する。 First, 50 particles (current position x) are randomly defined with mutually different pitch angles α car in the angle range of −5.0 [deg] to +5.0 [deg]. Also, 50 different velocity vectors v are randomly defined in the range of 0-1.
式(12)と同様に、50個の粒子(の現在位置x)に50個の速度ベクトルvを加算する。加算済みの粒子の50個のピッチ角αcarの全てに対応した評価値Sを求め、その評価値Sを各粒子の最良の値pbestとし、最も評価値Sが小さい粒子をgbestとする。これで、式(13)により、k=0のときの速度ベクトルvと現在位置x1が求められる。 Similar to Equation (12), 50 velocity vectors v are added to 50 particles (current positions x). Evaluation values S corresponding to all 50 pitch angles αcar of the added particles are obtained, the evaluation values S are set as the best value pbest of each particle, and the particle with the smallest evaluation value S is set as gbest. Thus, the velocity vector v and the current position x1 when k=0 are obtained from equation (13).
以後、k=0のときの速度ベクトルvと現在位置x1に基づいて、繰り返し回数kを1,2,…,50と順次増やして、その都度、xの値を繰り返し求めると、50個の粒子の全てが、特定のピッチ角αcar付近に集まり、その特定のピッチ角αcar付近に集まった粒子のうちで最も評価値Sが小さい粒子を最終的なgbestとし、これを採用する。採用された粒子のピッチ角αcarが、特定すべき車両姿勢を構成するピッチ角αcarとなる。 After that, based on the velocity vector v when k=0 and the current position x1, the number of iterations k is sequentially increased from 1, 2, . all gather around a specific pitch angle α car , and the particle with the smallest evaluation value S among the particles gathered around the specific pitch angle α car is taken as the final gbest and adopted. The pitch angle αcar of the adopted particles becomes the pitch angle αcar that constitutes the vehicle attitude to be identified.
なお、繰り返し回数kを順次増やして、その都度、xの値を繰り返し求めたとき、50個の粒子の全てが、特定のピッチ角αcar付近に集まる状況というのは、例えば、最終的に求められる最適解が1.0[deg]であったとすると、繰り返し回数が小さい初期においては、ピッチ角αcarがランダムな値を示すものの、繰り返し回数が増えるにしたがって、ピッチ角αcarが最適解である1.0[deg]付近(例えば、…,0.997,0.998,0.9998,1.0001,1.0003[deg])に収束した状況である。 Incidentally, when the number of iterations k is sequentially increased and the value of x is repeatedly obtained each time, the situation in which all 50 particles gather near a specific pitch angle α is finally obtained, for example, Assuming that the optimum solution is 1.0 [deg], the pitch angle α car shows a random value at the beginning when the number of repetitions is small, but as the number of repetitions increases, the pitch angle α car becomes the optimum solution. It is in a state of convergence around 0 [deg] (for example, 0.997, 0.998, 0.9998, 1.0001, 1.0003 [deg]).
上述の説明は、現在位置xとしてピッチ角αcarのみを適用したものであるが、現在位置xとして、ロール角γcar及び沈み込み量Zcar_szを同時に適用することで、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szの各最適解を求めることができ、これにより、車両姿勢を特定する3つのパラメータを同時に求めることができる。以上により、演算処理装置31は、最も小さい評価値S(類似度が最も高い)に対応した車両姿勢パラメータを求めることができる。
In the above description, only the pitch angle αcar is applied as the current position x. Each optimum solution for the loading amount Zcar_sz can be determined, thereby simultaneously determining the three parameters that specify the vehicle attitude. As described above, the
そして、パラメータ設定部33は、求められた車両姿勢パラメータを、各カメラ11~14にそれぞれ対応した4つのカメラパラメータと合成して4つの合成カメラパラメータを求める。このとき、合成カメラパラメータの角度成分(ピッチ角、ロール角、ヨー角)については、式(4)で求めた値を採用すればよい。合成カメラパラメータの並進成分(x,y,z)については、x,yは設計値又は車両200の製造工場若しくは販売会社での初期状態のキャリブレーションで設定された値をそのまま継続して採用し、zは式(11)で求められた車両姿勢の変動後の合成カメラパラメータの並進行列Tcam2における沈み込み量Zcam2を採用すればよい。
Then, the
以上、詳細に説明したように、本実施形態のカメラECU30によれば、車両200の前後方向に延びた直線が存在しない環境下であっても、カメラパラメータを補正することができる。
As described above in detail, according to the
また、本実施形態のカメラECU30によれば、合成俯瞰画像APにおいて重複する領域である4つの領域(右前方俯瞰画像P13の領域、左前方俯瞰画像P14の領域、右後方俯瞰画像P23の領域、左後方俯瞰画像P24)のうち1つの重複領域(例えば、右前方俯瞰画像P13の領域)のみの画像の類似度に基づいて、車両姿勢パラメータを特定することができるため、4つの重複領域の全ての画像について類似度を評価する場合に比べて、演算負荷を低減させることができる。
Further, according to the
また、本実施形態のカメラECU30によれば、パラメータ記録装置34が、車両200の複数(例えば50個)の車両姿勢に対応した、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szの組み合わせで特定される車両姿勢パラメータを、予め記憶しているため、新たなキャリブレーションの都度、これらの複数の車両姿勢パラメータを演算して設定する必要が無く、演算負荷を軽減することができる。なお、パラメータ記録装置34が記憶している車両姿勢に対応した、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szの組み合わせで特定される車両姿勢パラメータは、50個に限定されず、50個未満の数であっても50個を超える数であってもよく、演算負荷や演算コストなどに応じて設定することができる。
Further, according to the
10 車載カメラ
20 車速センサ
30 カメラECU
31 演算処理装置
32 画像変換部
33 パラメータ設定部
34 パラメータ記録装置
P1 前方俯瞰画像
P13 右前方俯瞰画像
P13a 一部領域
P3 右側方俯瞰画像
10 vehicle-mounted
31
Claims (4)
前記複数の撮像装置ごとの、初期状態の車両姿勢における前記車両に対する姿勢に対応して予め設定されたカメラパラメータ及び前記車両の複数の姿勢にそれぞれ対応した複数の車両姿勢パラメータを記憶したパラメータ記憶部と、
複数の前記車両姿勢パラメータのそれぞれと前記カメラパラメータとを合成した、車両姿勢を加味した複数の合成カメラパラメータを生成し、複数の前記合成カメラパラメータに基づいて、前記重複した領域のうち1つの重複した領域を含む2つの画像を前記画像変換部によりそれぞれ俯瞰画像に変換したときの、前記1つの重複した領域の類似度をそれぞれ求め、複数の前記合成カメラパラメータに対応して得られた複数の前記類似度のうち最も高い類似度に対応した1つの前記車両姿勢パラメータを特定し、特定された1つの前記車両姿勢パラメータと複数の前記撮像装置にそれぞれ対応した前記カメラパラメータとをそれぞれ合成した前記合成カメラパラメータを、前記画像変換部による前記俯瞰画像に変換するカメラパラメータとして設定するパラメータ設定部と、を備えたキャリブレーション装置。 an image conversion unit that converts each of the images captured by a plurality of imaging devices installed at different positions of the vehicle into a bird's-eye view image including overlapping areas in the imaging range;
A parameter storage unit storing camera parameters preset corresponding to attitudes of the vehicle in an initial vehicle attitude and a plurality of vehicle attitude parameters respectively corresponding to the plurality of attitudes of the vehicle, for each of the plurality of imaging devices. When,
generating a plurality of synthesized camera parameters that take into account the vehicle orientation by synthesizing each of the plurality of vehicle orientation parameters and the camera parameters; The similarity of each of the overlapped regions is obtained when two images including the regions that are overlapped are converted into bird's-eye images by the image conversion unit, and a plurality of obtained corresponding to the plurality of synthesized camera parameters are calculated. One vehicle attitude parameter corresponding to the highest similarity among the similarities is identified, and the identified one vehicle attitude parameter and the camera parameters respectively corresponding to the plurality of imaging devices are synthesized. and a parameter setting unit that sets synthetic camera parameters as camera parameters for converting into the bird's-eye view image by the image conversion unit.
前記車両の複数の姿勢にそれぞれ対応した複数の車両姿勢パラメータのそれぞれと前記複数の撮像装置ごとの、初期状態の車両姿勢における前記車両に対する姿勢に対応して予め設定されたカメラパラメータとを合成した、車両姿勢を加味した複数の合成カメラパラメータを生成し、
複数の前記合成カメラパラメータに基づいて、前記重複した領域のうち1つの重複した領域を含む2つの画像をそれぞれ俯瞰画像に変換したときの、前記1つの重複した領域の類似度をそれぞれ求め、
複数の前記合成カメラパラメータに対応して得られた複数の前記類似度のうち最も高い類似度に対応した1つの前記車両姿勢パラメータを特定し、
特定された1つの前記車両姿勢パラメータと複数の前記撮像装置にそれぞれ対応した前記カメラパラメータとをそれぞれ合成した前記合成カメラパラメータを、前記俯瞰画像に変換するカメラパラメータとして設定するキャリブレーション方法。 When calibrating the camera parameters for each of the plurality of imaging devices, each of which is captured by a plurality of imaging devices installed at different positions on the vehicle and whose imaging range includes areas that overlap each other and is converted into a bird's-eye view image. ,
Each of a plurality of vehicle attitude parameters respectively corresponding to a plurality of attitudes of the vehicle and a camera parameter set in advance corresponding to the attitude with respect to the vehicle in the initial state of the vehicle attitude for each of the plurality of imaging devices are synthesized. , generate multiple synthetic camera parameters that take into account the vehicle posture,
Based on the plurality of synthetic camera parameters, each similarity of the one overlapping area when two images including one overlapping area among the overlapping areas are converted into a bird's-eye view image respectively . ask,
identifying one vehicle posture parameter corresponding to the highest degree of similarity among the plurality of degrees of similarity obtained corresponding to the plurality of synthetic camera parameters;
A calibration method of setting the synthesized camera parameters obtained by synthesizing the one specified vehicle posture parameter and the camera parameters respectively corresponding to the plurality of imaging devices as camera parameters for converting into the bird's-eye view image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018192084A JP7162489B2 (en) | 2018-10-10 | 2018-10-10 | CALIBRATION DEVICE AND CALIBRATION METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018192084A JP7162489B2 (en) | 2018-10-10 | 2018-10-10 | CALIBRATION DEVICE AND CALIBRATION METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020060976A JP2020060976A (en) | 2020-04-16 |
JP7162489B2 true JP7162489B2 (en) | 2022-10-28 |
Family
ID=70220008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018192084A Active JP7162489B2 (en) | 2018-10-10 | 2018-10-10 | CALIBRATION DEVICE AND CALIBRATION METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7162489B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112702518B (en) * | 2020-12-24 | 2023-04-07 | 维沃移动通信(杭州)有限公司 | Shooting method and device and electronic equipment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215063A (en) | 2010-04-01 | 2011-10-27 | Tottori Univ | Camera attitude parameter estimation device |
JP2016001378A (en) | 2014-06-11 | 2016-01-07 | 株式会社デンソー | Calibration device of on-vehicle camera |
JP2016070814A (en) | 2014-09-30 | 2016-05-09 | クラリオン株式会社 | Camera calibration device and camera calibration system |
JP2018157496A (en) | 2017-03-21 | 2018-10-04 | クラリオン株式会社 | Calibration device |
-
2018
- 2018-10-10 JP JP2018192084A patent/JP7162489B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215063A (en) | 2010-04-01 | 2011-10-27 | Tottori Univ | Camera attitude parameter estimation device |
JP2016001378A (en) | 2014-06-11 | 2016-01-07 | 株式会社デンソー | Calibration device of on-vehicle camera |
JP2016070814A (en) | 2014-09-30 | 2016-05-09 | クラリオン株式会社 | Camera calibration device and camera calibration system |
JP2018157496A (en) | 2017-03-21 | 2018-10-04 | クラリオン株式会社 | Calibration device |
Non-Patent Citations (2)
Title |
---|
Cheng-Ming Huang;Ting-Yi Yang;Kuang-Yow Lian;Shih-Che Chien;Min-Fong Luo,Fish-eye cameras calibration for vehicle around view monitoring system,2014 IEEE International Conference on Consumer Electronics - Taiwan,IEEE,2014年,pp.225-226,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6904070 |
鄒 武合,レーザポインターを用いた視野の重ならない車載カメラの相対姿勢の算出,電子情報通信学会論文誌D VolumeJ97-D No.11,日本,電子情報通信学会,2014年11月01日,Vol.J97-D No.11,P.1651-1659 |
Also Published As
Publication number | Publication date |
---|---|
JP2020060976A (en) | 2020-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5072576B2 (en) | Image display method and image display apparatus | |
EP3367677B1 (en) | Calibration apparatus, calibration method, and calibration program | |
JP5455124B2 (en) | Camera posture parameter estimation device | |
JP5444139B2 (en) | Image calibration method and apparatus | |
KR101265012B1 (en) | Calibration device, method, and program for onboard camera | |
US9981605B2 (en) | Surround-view camera system (VPM) and vehicle dynamic | |
JP5133783B2 (en) | In-vehicle device | |
EP2523163B1 (en) | Method and program for calibrating a multicamera system | |
EP1850595B1 (en) | Periphery supervising device, and periphery supervising method | |
JP6565769B2 (en) | In-vehicle camera mounting angle detection device, mounting angle calibration device, mounting angle detection method, mounting angle calibration method, and computer program | |
KR20170077223A (en) | Online calibration of a motor vehicle camera system | |
CN105594203B (en) | The method of adjustment of vehicle-surroundings image display device and camera | |
EP1828979B1 (en) | Method for determining the position of an object from a digital image | |
US20130222793A1 (en) | Method and apparatus for wheel alignment | |
JP5240527B2 (en) | Car camera calibration apparatus, method, and program | |
US20090040312A1 (en) | Calibration apparatus and method thereof | |
EP3505865B1 (en) | On-vehicle camera, method for adjusting on-vehicle camera, and on-vehicle camera system | |
JP7162489B2 (en) | CALIBRATION DEVICE AND CALIBRATION METHOD | |
US10083509B2 (en) | Image calibration | |
JP2013024712A (en) | Method and system for calibrating multiple camera | |
JP2020107938A (en) | Camera calibration device, camera calibration method, and program | |
WO2013154085A1 (en) | Calibration method and device | |
JP2015106777A (en) | Image processing system, operation support device, navigation device, and camera device | |
KR101989370B1 (en) | method of providing dynamic automatic calibratiion of SVM by use of lane recognition | |
JP2008042664A (en) | Image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7162489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |