JP7162489B2 - CALIBRATION DEVICE AND CALIBRATION METHOD - Google Patents

CALIBRATION DEVICE AND CALIBRATION METHOD Download PDF

Info

Publication number
JP7162489B2
JP7162489B2 JP2018192084A JP2018192084A JP7162489B2 JP 7162489 B2 JP7162489 B2 JP 7162489B2 JP 2018192084 A JP2018192084 A JP 2018192084A JP 2018192084 A JP2018192084 A JP 2018192084A JP 7162489 B2 JP7162489 B2 JP 7162489B2
Authority
JP
Japan
Prior art keywords
vehicle
camera parameters
image
camera
bird
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018192084A
Other languages
Japanese (ja)
Other versions
JP2020060976A (en
Inventor
司 齋藤
学 川辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2018192084A priority Critical patent/JP7162489B2/en
Publication of JP2020060976A publication Critical patent/JP2020060976A/en
Application granted granted Critical
Publication of JP7162489B2 publication Critical patent/JP7162489B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、キャリブレーション装置及びキャリブレーション方法に関する。 The present invention relates to a calibration device and a calibration method.

車両に、車両の周囲を撮影する複数のカメラを設置し、各カメラで撮影された画像をそれぞれ、車両の上方から見下ろした画像である俯瞰画像に変換し、さらに、これら複数のカメラで撮影された複数の画像に基づく複数の俯瞰画像を1つに繋いだ合成俯瞰画像を生成することが行なわれている。このように形成された合成俯瞰画像は、1つの画像で、自車両の周囲全体の景色を表すことができる。 A vehicle is equipped with a plurality of cameras that capture the surroundings of the vehicle. The images captured by each camera are converted into an overhead image, which is an image looking down from above the vehicle. A synthetic bird's-eye view image is generated by connecting a plurality of bird's-eye images based on a plurality of images obtained from the above. The composite bird's-eye view image formed in this way can express the scenery of the entire surroundings of the own vehicle with one image.

ここで、各カメラで撮影された画像を俯瞰画像を生成する場合、各カメラの取り付け姿勢(向き)を特定するカメラパラメータが必要になる。各カメラの姿勢は設計値に基づいて予め設定されているが、実際の車両においては、誤差等が生じる場合がある。このような誤差が生じたまま、設計値に基づいたカメラパラメータで合成俯瞰画像が生成された場合、その誤差に応じて、俯瞰画像同士の繋ぎの部分にズレが生じたり、本来前後方向に延びるべき直線が傾斜した直線になったりして、精度のよい合成俯瞰画像を生成することができない。 Here, when a bird's-eye view image is generated from images captured by each camera, camera parameters that specify the mounting posture (orientation) of each camera are required. The orientation of each camera is set in advance based on design values, but errors may occur in actual vehicles. When a synthetic bird's-eye view image is generated with camera parameters based on design values while such an error occurs, depending on the error, a gap may occur in the connecting part of the bird's-eye view images, or the part that originally extends in the front-back direction may occur. The power straight line becomes a slanted straight line, and an accurate synthetic bird's-eye view image cannot be generated.

このような問題を解決するため、キャリブレーション(校正)と称される、カメラパラメータの補正が行われる。このキャリブレーションは、例えば、車両を製造した工場の生産ライン等において、車両に人が乗っていないか又は完成車の検査員が1人だけ運転席に乗っていて、かつ荷物を積載していない、という特定の積載状態で行われる。 In order to solve such problems, correction of camera parameters called calibration is performed. This calibration is performed, for example, on the production line of the factory where the vehicle was manufactured, when no one is on the vehicle or only one inspector of the finished vehicle is in the driver's seat and no luggage is loaded. , in a particular loading state.

しかし、実際にユーザが車両を使用する際には、乗車人数や乗員が座る位置、荷物の積載有無等によって、車両の積載状態は変化する。車両の姿勢は積載状態に依存するが、車両の姿勢が変化することにより、合成俯瞰画像の投影面である路面に対するカメラの姿勢が変化する。すなわち、車両姿勢が変化しても、車両に対するカメラパラメータは変化しないが、キャリブレーションを行ったときの車両姿勢とは異なる場合、合成俯瞰画像に上述したズレ等が生じ得る。 However, when the user actually uses the vehicle, the loading condition of the vehicle changes depending on the number of passengers, the positions of the passengers, the presence or absence of luggage, and the like. The posture of the vehicle depends on the loading state, and the change in the posture of the vehicle changes the posture of the camera with respect to the road surface on which the synthetic bird's-eye view image is projected. That is, even if the vehicle attitude changes, the camera parameters for the vehicle do not change, but if the vehicle attitude differs from the vehicle attitude when calibration was performed, the above-described shift or the like may occur in the synthesized bird's-eye view image.

そこで、実際の車両の使用状態である車両の走行中に、カメラで撮影された画像に基づいて、キャリブレーションを行う技術が開示されている(例えば、特許文献1参照)。この技術によれば、実際の車両の使用状態に応じた車両姿勢でのキャリブレーションを行うため、その使用中の合成俯瞰画像にズレ等が生じるのを防止して、精度のよい合成俯瞰画像を得ることができる。 Therefore, a technique of performing calibration based on an image captured by a camera while the vehicle is running, which is the actual usage condition of the vehicle, has been disclosed (see, for example, Patent Document 1). According to this technology, since the calibration is performed with the vehicle attitude according to the actual use condition of the vehicle, it is possible to prevent the synthetic bird's-eye view image from being deviated while the vehicle is in use, and to produce an accurate synthetic bird's-eye view image. Obtainable.

特開2016-070814号公報JP 2016-070814 A

上述した特許文献1に記載の技術は、車両の周囲に、前後方向に直線状に延びる線(車線を区切る白線等)が存在し、車両の前後部に設けられた前部カメラの撮影領域と後部カメラの撮影領域にそれぞれ2本の直線の画像が写り、さらに、車両の各側部に設けられた右側部カメラの撮影領域と左側部カメラの撮影領域にそれぞれ1本の直線の画像が写ることが必要である。 In the technique described in Patent Document 1 described above, lines extending linearly in the front-rear direction (white lines separating lanes, etc.) exist around the vehicle, and the imaging area of the front cameras provided at the front and rear of the vehicle. Two straight images are captured in the photographing area of the rear camera, and one straight line image is captured in the photographing area of the right side camera and the photographing area of the left side camera provided on each side of the vehicle. It is necessary.

したがって、特許文献1に記載のキャリブレーションは、そのような直線が撮影領域に存在しない状況で適用することができない。 Therefore, the calibration described in Patent Document 1 cannot be applied in situations where such a straight line does not exist in the imaging area.

本発明は上記事情に鑑みなされたものであり、車両の前後方向に延びた直線が存在しない環境下であっても、カメラパラメータを補正することができるキャリブレーション装置及びキャリブレーション方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a calibration device and a calibration method capable of correcting camera parameters even in an environment where there is no straight line extending in the longitudinal direction of the vehicle. With the goal.

本発明の第1は、車両の異なる位置にそれぞれ設置された複数の撮像装置により、互いに重複した領域を撮影範囲に含んで撮影された画像をそれぞれ俯瞰画像に変換する画像変換部と、前記複数の撮像装置ごとの、初期状態の車両姿勢における前記車両に対する姿勢に対応して予め設定されたカメラパラメータ及び前記車両の複数の姿勢にそれぞれ対応した複数の車両姿勢パラメータを記憶したパラメータ記憶部と、複数の前記車両姿勢パラメータのそれぞれと前記カメラパラメータとを合成した、車両姿勢を加味した複数の合成カメラパラメータを生成し、複数の前記合成カメラパラメータに基づいて、前記重複した領域のうち1つの重複した領域を含む2つの画像を前記画像変換部によりそれぞれ俯瞰画像に変換したときの、前記1つの重複した領域の類似度をそれぞれ求め、複数の前記合成カメラパラメータに対応して得られた複数の前記類似度のうち最も高い類似度に対応した1つの前記車両姿勢パラメータを特定し、特定された1つの前記車両姿勢パラメータと複数の前記撮像装置にそれぞれ対応した前記カメラパラメータとをそれぞれ合成した前記合成カメラパラメータを、前記画像変換部による前記俯瞰画像に変換するカメラパラメータとして設定するパラメータ設定部と、を備えたキャリブレーション装置である。 A first aspect of the present invention is an image conversion unit that converts images captured by a plurality of imaging devices each having an overlapping area in the imaging range into a bird's-eye view image by a plurality of imaging devices installed at different positions of a vehicle, and a parameter storage unit storing camera parameters set in advance corresponding to the attitude of the vehicle in the vehicle attitude of the initial state and a plurality of vehicle attitude parameters respectively corresponding to the plurality of attitudes of the vehicle, for each imaging device of generating a plurality of synthesized camera parameters that take into account the vehicle orientation by synthesizing each of the plurality of vehicle orientation parameters and the camera parameters; The similarity of each of the overlapped regions is obtained when the two images including the overlapped regions are converted into bird's-eye images by the image conversion unit, and a plurality of obtained corresponding to the plurality of synthesized camera parameters are calculated. One vehicle attitude parameter corresponding to the highest similarity among the similarities is identified, and the identified one vehicle attitude parameter and the camera parameters respectively corresponding to the plurality of imaging devices are synthesized. and a parameter setting unit that sets a synthesized camera parameter as a camera parameter for converting into the bird's-eye view image by the image conversion unit.

本発明の第2は、車両の異なる位置にそれぞれ設置された複数の撮像装置により、互いに重複した領域を撮影範囲に含んで撮影された画像をそれぞれ俯瞰画像に変換する、前記複数の撮像装置ごとのカメラパラメータを校正するに際して、前記車両の複数の姿勢にそれぞれ対応した複数の車両姿勢パラメータのそれぞれと前記複数の撮像装置ごとの、初期状態の車両姿勢における前記車両に対する姿勢に対応して予め設定されたカメラパラメータとを合成した、車両姿勢を加味した複数の合成カメラパラメータを生成し、複数の前記合成カメラパラメータに基づいて、前記重複した領域のうち1つの重複した領域を含む2つの画像を前記画像変換部によりそれぞれ俯瞰画像に変換したときの、前記1つの重複した領域の類似度をそれぞれ求め、複数の前記合成カメラパラメータに対応して得られた複数の前記類似度のうち最も高い類似度に対応した1つの前記車両姿勢パラメータを特定し、特定された1つの前記車両姿勢パラメータと複数の前記撮像装置にそれぞれ対応した前記カメラパラメータとをそれぞれ合成した前記合成カメラパラメータを、前記俯瞰画像に変換するカメラパラメータとして設定するキャリブレーション方法である。 A second aspect of the present invention is for each of the plurality of imaging devices, wherein images captured by a plurality of imaging devices, each of which includes an overlapping area in its imaging range, are captured by a plurality of imaging devices installed at different positions of the vehicle, and are each converted into a bird's eye view image. When calibrating the camera parameters of , each of a plurality of vehicle attitude parameters respectively corresponding to a plurality of attitudes of the vehicle and each of the plurality of imaging devices are set in advance corresponding to the attitude of the vehicle in the initial state of the vehicle attitude generating a plurality of synthesized camera parameters that take into account the vehicle posture by synthesizing the obtained camera parameters, and generating two images including one of the overlapping regions based on the plurality of synthesized camera parameters; Each of the similarities of the one overlapped area is obtained when each of the overlapped areas is converted into a bird's-eye view image by the image conversion unit, and the highest similarity among the plurality of the similarities obtained corresponding to the plurality of the synthetic camera parameters. one vehicle attitude parameter corresponding to the angle of view is specified, and the synthesized camera parameters obtained by synthesizing the specified one vehicle attitude parameter and the camera parameters respectively corresponding to the plurality of imaging devices are displayed in the bird's-eye view image. It is a calibration method that is set as a camera parameter to be converted to .

本発明に係るキャリブレーション装置及びキャリブレーション方法によれば、車両の前後方向に延びた直線が存在しない環境下であっても、カメラパラメータを補正することができる。 According to the calibration device and calibration method of the present invention, camera parameters can be corrected even in an environment where there is no straight line extending in the longitudinal direction of the vehicle.

本発明に係るキャリブレーション装置及びキャリブレーション方法を実施する一例であるカメラECUを含む車両周囲監視システムを示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a vehicle surroundings monitoring system including a camera ECU, which is an example of implementing a calibration device and a calibration method according to the present invention; 車載カメラを構成する各カメラの設置位置と撮影範囲を模式的に示した平面図である。FIG. 2 is a plan view schematically showing the installation positions and shooting ranges of the cameras that make up the vehicle-mounted camera; 本実施形態の車両周囲監視システムにおいて用いる座標系を説明する図であり、世界座標系及び車両座標系を示す図である。It is a figure explaining the coordinate system used in the vehicle surroundings monitoring system of this embodiment, and is a figure which shows a world coordinate system and a vehicle coordinate system. 本実施形態の車両周囲監視システムにおいて用いる座標系を説明する図であり、カメラ座標系を示す図である。It is a figure explaining the coordinate system used in the vehicle surroundings monitoring system of this embodiment, and is a figure which shows a camera coordinate system. カメラECUの具体的な処理の流れを説明するフローチャートである。4 is a flowchart for explaining a specific processing flow of a camera ECU;

以下、本発明に係るキャリブレーション装置及びキャリブレーション方法の具体的な実施の形態について、図面を参照して説明する。 Hereinafter, specific embodiments of a calibration device and a calibration method according to the present invention will be described with reference to the drawings.

<車両周囲監視システム>
図1は、本発明に係るキャリブレーション装置及びキャリブレーション方法を実施する一例であるカメラECU30を含む車両周囲監視システムを示すブロック図、図2は車載カメラ10を構成する各カメラ11~14の設置位置と撮影範囲を模式的に示した平面図である。図1に示した車両周囲監視システムは、車両200(以下、自車200ともいう)に搭載された車載カメラ10(前部カメラ11、後部カメラ12、右側部カメラ13、左側部カメラ14)、自車200の走行速度を検出する車速センサ20と、車載カメラ10で撮影された画像に基づいて、自車200の周囲を含む合成俯瞰画像APを生成するカメラECU30と、合成俯瞰画像APを表示する映像表示装置90と、を備えている。
<Vehicle Surrounding Monitoring System>
FIG. 1 is a block diagram showing a vehicle surrounding monitoring system including a camera ECU 30, which is an example of implementing the calibration device and calibration method according to the present invention, and FIG. FIG. 3 is a plan view schematically showing positions and imaging ranges; The vehicle surroundings monitoring system shown in FIG. A vehicle speed sensor 20 for detecting the running speed of the own vehicle 200, a camera ECU 30 for generating a synthetic bird's-eye view image AP including the surroundings of the vehicle 200 based on the image captured by the vehicle-mounted camera 10, and the synthetic bird's-eye view image AP are displayed. and a video display device 90 for displaying images.

カメラ11~14は、図2に示すように、自車200の異なる位置に、それぞれ自車200に対する姿勢(向き)に対応して予め設定されたカメラパラメータにしたがって設置されている。各カメラパラメータは、車両の初期状態の積載状態において設定されたものであり、ピッチ角αcam1(カメラ10の光軸に直交する横軸回りの回転角度)、ロール角βcam1(カメラ10の光軸回りの回転角度)、ヨー角γcam1(カメラ10の光軸に直交する縦軸回りの回転角度)により規定されている。 As shown in FIG. 2, the cameras 11 to 14 are installed at different positions on the vehicle 200 according to preset camera parameters corresponding to the attitudes (orientations) of the vehicle 200 . Each camera parameter is set in the initial loaded state of the vehicle. ) and the yaw angle γ cam1 (the rotation angle about the vertical axis orthogonal to the optical axis of the camera 10).

車両の初期状態の積載状態は、例えば、車両200が空車の積載状態(乗員0人で、かつ荷物を積載していない状態)であり、初期状態におけるカメラパラメータは、例えば、車両が製造された工場における完成検査の工程で行われたキャリブレーションにより設定され、後述するパラメータ記録装置34に記憶されている。 The initial loading state of the vehicle is, for example, the empty loading state of the vehicle 200 (the state in which there are no passengers and no cargo is loaded), and the camera parameters in the initial state are, for example, It is set by calibration performed in the final inspection process at the factory and stored in the parameter recording device 34, which will be described later.

前部カメラ11は、具体的には自車200の前端部に取り付けられていて自車200の前方領域(F)を撮影範囲とする前方画像PO1を撮影する。後部カメラ12は、具体的には自車200の後端部に取り付けられていて自車200の後方領域(R)を撮影範囲とする後方画像PO2を撮影する。右側部カメラ13は、具体的には自車200の右ドアミラー付近に取り付けられていて自車200の右側方領域(SR)を撮影範囲とする右側方画像PO3を撮影する。左側部カメラ14は、具体的には自車200の左ドアミラー付近に取り付けられていて自車200の左側方領域(SL)を撮影範囲とする左側方画像PO4を撮影する。 The front camera 11 is specifically attached to the front end of the vehicle 200 and captures a forward image PO1 whose imaging range is the front region (F) of the vehicle 200 . The rear camera 12 is specifically attached to the rear end portion of the vehicle 200 and captures a rear image PO2 having a rear region (R) of the vehicle 200 as an imaging range. The right side camera 13 is specifically attached near the right door mirror of the vehicle 200 and captures a right side image PO3 whose imaging range is the right side region (SR) of the vehicle 200 . The left side camera 14 is specifically attached near the left door mirror of the vehicle 200 and captures a left side image PO4 having a left side area (SL) of the vehicle 200 as an imaging range.

各カメラ11~14はいずれも広角レンズを備えていて、略180[度]という広い画角の撮影範囲を有している。そして、図2に示すように、前方画像PO1と右側方画像PO3とは、自車200の右前方の領域において重複した領域を含み、前方画像PO1と右側方画像PO3とはいずれも、その重複した領域の画像である右前方画像PO13を含んでいる。同様に、前方画像PO1と左側方画像PO4とは、自車200の左前方の領域において重複した領域を含み、前方画像PO1と左側方画像PO4とはいずれも、その重複した領域の画像である左前方画像PO14を含んでいる。 Each of the cameras 11 to 14 has a wide-angle lens and has a wide angle of view of about 180 degrees. Then, as shown in FIG. 2, the front image PO1 and the right side image PO3 include an overlapping area in the right front area of the vehicle 200, and both the front image PO1 and the right side image PO3 are the overlapping areas. It includes a right front image PO13, which is an image of the area that has been moved. Similarly, the front image PO1 and the left side image PO4 include an overlapping area in the left front area of the vehicle 200, and both the front image PO1 and the left side image PO4 are images of the overlapping area. A left front image PO14 is included.

自車200の後方についても同様であり、後方画像PO2と右側方画像PO3とは、自車200の右後方の領域において重複した領域を有し、後方画像PO2と右側方画像PO3とはいずれも、その重複した領域の画像である右後方画像PO23を有している。後方画像PO2と左側方画像PO4とは、自車200の左後方の領域において重複した領域を有し、後方画像PO2と左側方画像PO4とはいずれも、その重複した領域の画像である左後方画像PO24を有している。 The same applies to the rear of vehicle 200. Rear image PO2 and right side image PO3 have an overlapping area in the area to the right rear of vehicle 200, and both rear image PO2 and right side image PO3 , has a right rear image PO23 that is an image of the overlapped area. The rearward image PO2 and the left side image PO4 have an overlapping area in the left rear area of the host vehicle 200, and both the rearward image PO2 and the left side image PO4 are images of the overlapping area. It has an image PO24.

なお、図2は、自車200の上方から見た平面視として俯瞰して得られる画像であるため、図2においては、前方画像PO1を俯瞰画像に変換して得られた前方俯瞰画像P1に対してカッコ書きで記載している。後方画像PO2、右側方画像PO3及び左側方画像PO4についても同様に、それぞれ対応する後方俯瞰画像P2、右側方俯瞰画像P3、左側方俯瞰画像P4に対してカッコ書きで記載している。実際の前方画像PO1、後方画像PO2、右側方画像PO3及び左側方画像PO4は、車載カメラ10からの距離が長くなるにしたがって被写体の像が小さくなる歪を有している。 Since FIG. 2 is a bird's-eye view image obtained as a plan view seen from above the own vehicle 200, in FIG. It is written in parentheses. Similarly, the rear image PO2, the right side image PO3, and the left side image PO4 are indicated in parentheses with respect to the corresponding rear bird's-eye view image P2, right side bird's-eye view image P3, and left side bird's-eye view image P4, respectively. The actual front image PO1, rear image PO2, right side image PO3, and left side image PO4 have distortion such that the image of the subject becomes smaller as the distance from the in-vehicle camera 10 increases.

<カメラECU>
カメラECU30は、演算処理装置31と、パラメータ記録装置34(パラメータ記憶部)と、I/Oポート37,38,39と、を備えている。I/Oポート37は、各カメラ11~14から前方画像PO1を表す画像信号、後方画像PO2を表す画像信号、右側方画像PO3を表す画像信号及び左側方画像PO4を表す画像信号を、演算処理装置31に入力する端子、I/Oポート38は、車速センサ20から自車200の走行速度を表す車速信号を、演算処理装置31に入力する端子、I/Oポート39は、演算処理装置31から演算処理装置31で生成された合成俯瞰画像APを表す画像信号を、映像表示装置90に出力する端子である。
<Camera ECU>
The camera ECU 30 includes an arithmetic processing device 31 , a parameter recording device 34 (parameter storage section), and I/O ports 37 , 38 and 39 . The I/O port 37 receives an image signal representing the front image PO1, an image signal representing the rear image PO2, an image signal representing the right side image PO3, and an image signal representing the left side image PO4 from each of the cameras 11 to 14 and performs arithmetic processing. A terminal for inputting to the device 31, an I/O port 38 is a terminal for inputting a vehicle speed signal representing the running speed of the own vehicle 200 from the vehicle speed sensor 20 to the processing unit 31, and an I/O port 39 is for inputting the processing unit 31 A terminal for outputting an image signal representing the synthesized bird's-eye view image AP generated by the arithmetic processing unit 31 to the image display device 90 .

パラメータ記録装置34は、カメラ11~14ごとに対応したカメラパラメータ(4つ)と、自車200の複数の車両姿勢をそれぞれ特定する、予め設定された複数の車両姿勢パラメータと、を記憶している。 The parameter recording device 34 stores camera parameters (four) corresponding to each of the cameras 11 to 14 and a plurality of preset vehicle attitude parameters respectively specifying a plurality of vehicle attitudes of the own vehicle 200. there is

図3,4は本実施形態の車両周囲監視システムにおいて用いる座標系を説明する図であり、図3は世界座標系及び車両座標系を示す図であり、図4はカメラ座標系を示す図である。 3 and 4 are diagrams for explaining the coordinate system used in the vehicle surrounding monitoring system of this embodiment, FIG. 3 is a diagram showing the world coordinate system and the vehicle coordinate system, and FIG. 4 is a diagram showing the camera coordinate system. be.

世界座標系及び車両座標系は、左手系座標かつ左ねじ回転方向で定義され、図3に示すように、x軸を左右方向(右を正方向)、y軸を前後方向(後方を正方向)、z軸を鉛直方向(上方を正方向)とし、原点Oを車両200の前輪車軸の中心とする。車両のオイラー角定義において、回転順序は、車両200のロール角→ピッチ角→ヨー角の順序(z-x-y)である。 The world coordinate system and the vehicle coordinate system are defined by left-handed coordinates and a left-handed screw rotation direction, and as shown in FIG. ), the z-axis is the vertical direction (upward is the positive direction), and the origin O is the center of the front wheel axle of the vehicle 200 . In the Euler angle definition of the vehicle, the order of rotation is the order of roll angle→pitch angle→yaw angle (zxy) of the vehicle 200 .

カメラ座標系は、左手系座標かつ左ねじ回転方向で定義され、図4に示すように、x軸を左右方向(車載カメラ10の設置状態での上面に向かって右方向を正方向)、y軸を縦方向(上面を正方向)、z軸をカメラ光軸方向(前方を負方向)とする。車載カメラ10のオイラー角定義において、回転順序は、車両200のロール角→ピッチ角→ヨー角の順序(z-x-y)である。 The camera coordinate system is defined by left-handed system coordinates and a left-handed screw rotation direction, and as shown in FIG. Let the axis be the vertical direction (upward direction is the positive direction), and the z-axis be the camera optical axis direction (the forward direction be the negative direction). In the Euler angle definition of the vehicle-mounted camera 10, the order of rotation is the order of roll angle→pitch angle→yaw angle of the vehicle 200 (zxy).

ここで、車両姿勢パラメータは、車両200が初期状態の積載状態(乗員0人で、かつ荷物を積載していない状態)で水平面上におかれているときを基準として、車両200の車幅方向に延びたx軸回りの回転角度を表すピッチ角αcarと、車両200の前後方向に延びたy軸回りの回転角度を表すロール角γcarと、車両200の沈み込み量Zcar_szとの組み合わせによって特定される。 Here, the vehicle posture parameter is the vehicle width direction of the vehicle 200 with reference to the vehicle 200 being placed on a horizontal plane in the initial loaded state (no passengers and no cargo loaded). It is specified by a combination of a pitch angle α car representing a rotation angle about the x-axis extending in the vertical direction, a roll angle γ car representing a rotation angle about the y-axis extending in the longitudinal direction of the vehicle 200 , and a subsidence amount Zcar_sz of the vehicle 200 . be.

つまり、車両姿勢パラメータは、基準となる上記積載状態では、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szのいずれも0(ゼロ)であり、基準となる上記積載状態からの変動したピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szの組み合わせによって、車両姿勢パラメータが設定されている。 In other words, the vehicle posture parameters are such that the pitch angle αcar, the roll angle γcar, and the amount of subduction Zcar_sz are all 0 (zero) in the above-described reference loading state, and the pitch angle αcar , the roll angle γcar and the amount of subsidence Zcar_sz, the vehicle attitude parameters are set.

車両姿勢は、車両200に乗車する乗員の人数、乗員の体重(大人、子供の別を含む)、各乗員の着席場所、積載する荷物の重量、積載場所などによって変化する。パラメータ記録装置34が記憶している複数の車両姿勢パラメータは、これら乗員の人数等及び荷物の重量等などの想定される複数の積載状態にそれぞれ対応するピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szの組み合わせにより設定されており、具体的には、パラメータ記録装置34は、例えば50個の車両姿勢パラメータを記憶している。 The vehicle posture changes depending on the number of passengers on the vehicle 200, the weight of the passengers (including whether they are adults or children), the seating position of each passenger, the weight of luggage to be loaded, the loading location, and the like. The plurality of vehicle attitude parameters stored in the parameter recording device 34 are pitch angle αcar, roll angle γcar, and amount of subsidence corresponding to a plurality of assumed loading conditions such as the number of passengers and the weight of luggage. It is set by a combination of Zcar_sz. Specifically, the parameter recording device 34 stores, for example, 50 vehicle attitude parameters.

パラメータ記録装置34に記憶されているカメラパラメータは、各カメラ11~14にそれぞれ対応し、合計4つである。各カメラパラメータは、車両200に対する相対的な姿勢であるため、車両姿勢が変化しても変化することはない。 The camera parameters stored in the parameter recording device 34 correspond to the respective cameras 11 to 14, for a total of four. Since each camera parameter is an attitude relative to the vehicle 200, it does not change even if the vehicle attitude changes.

演算処理装置31は、画像変換部32と、パラメータ設定部33と、を備えている。画像変換部32は、I/Oポート37を介して各カメラ11~14から入力された、各カメラ11~14で撮影された前方画像PO1、後方画像PO2、右側方画像PO3、左側方画像PO4をそれぞれ、自車200の上方から平面視として俯瞰して得られる前方俯瞰画像P1、後方俯瞰画像P2、右側方俯瞰画像P3、左側方俯瞰画像P4に変換する。 The arithmetic processing device 31 includes an image conversion section 32 and a parameter setting section 33 . The image conversion unit 32 receives the front image PO1, the rear image PO2, the right side image PO3, and the left side image PO4 captured by the cameras 11 to 14, which are input from the cameras 11 to 14 via the I/O port 37. are converted into a front bird's-eye view image P1, a rear bird's-eye view image P2, a right side bird's-eye view image P3, and a left side bird's-eye view image P4 obtained by looking down from above the own vehicle 200 as a plan view.

ここで、演算処理装置31は、各画像PO1~PO4から対応する俯瞰画像P1~P4を生成するに際して、パラメータ記録装置34に記憶されている、初期的に設定された各カメラパラメータに基づいて画像の変換処理を行うが、初期状態とは異なる積載状態に対応した車両姿勢でのキャリブレーションを行うときは、パラメータ記録装置34に記憶されている、初期的に設定された各カメラパラメータと例えば50個の互いに異なる車両姿勢パラメータとをそれぞれ合成した合成カメラパラメータに基づいて画像の変換処理を行うことで、車両姿勢に応じた新たなキャリブレーションを行う。 Here, when generating the bird's-eye view images P1 to P4 corresponding to the images PO1 to PO4, the arithmetic processing unit 31 generates images based on the initially set camera parameters stored in the parameter recording device . However, when performing calibration in a vehicle posture corresponding to a loading state different from the initial state, the initially set camera parameters stored in the parameter recording device 34 and, for example, 50 New calibration according to the vehicle attitude is performed by performing image conversion processing based on the synthesized camera parameters obtained by synthesizing the vehicle attitude parameters different from each other.

新たなキャリブレーションを行う場合、具体的には、パラメータ設定部33が、パラメータ記録装置34に記憶されている初期状態でのカメラパラメータと50個の車両姿勢パラメータとをそれぞれ合成して、カメラ11~14ごとに50個の合成カメラパラメータを生成する。50個の合成カメラパラメータは、車両200の積載状態に応じて想定される50個の車両姿勢を加味した画像変換のためのカメラパラメータである。 Specifically, when performing new calibration, the parameter setting unit 33 synthesizes the camera parameters in the initial state stored in the parameter recording device 34 and 50 vehicle posture parameters, Generate 50 synthetic camera parameters every ~14. The 50 synthetic camera parameters are camera parameters for image conversion that take into account 50 vehicle orientations assumed according to the loading state of the vehicle 200 .

なお、本実施形態では、後述するように、前方俯瞰画像P1と右側方俯瞰画像P3のみを対象として類似度を評価する。したがって、パラメータ設定部33は、前方画像PO1を撮像する前部カメラ11のカメラパラメータと50個の車両姿勢パラメータとをそれぞれ合成して、前部カメラ11用として、50個の合成カメラパラメータを生成し、右側方画像PO3を撮像する右側部カメラ13のカメラパラメータと50個の車両姿勢パラメータとをそれぞれ合成して、右側部カメラ13用として、50個の合成カメラパラメータを生成する。 In this embodiment, as will be described later, similarity is evaluated only for the forward bird's-eye image P1 and the right side bird's-eye image P3. Therefore, the parameter setting unit 33 synthesizes the camera parameters of the front camera 11 that captures the front image PO1 and the 50 vehicle attitude parameters to generate 50 synthesized camera parameters for the front camera 11. Then, the camera parameters of the right side camera 13 that captures the right side image PO3 and the 50 vehicle attitude parameters are respectively synthesized to generate 50 synthesized camera parameters for the right side camera 13 .

次いで、画像変換部32が、パラメータ設定部33により生成された50個の合成カメラパラメータに基づいて、4つの重複した領域(右前方画像PO13の領域、左前方画像PO14の領域、右後方画像PO23の領域、左後方画像PO24の領域)のうち1つの、例えば右前方画像PO13の領域を含む2つの画像(前方画像PO1と右側方画像PO3)をそれぞれ前方俯瞰画像P1、右側方俯瞰画像P3に変換する。 Next, based on the 50 synthetic camera parameters generated by the parameter setting unit 33, the image conversion unit 32 converts four overlapping regions (the region of the right front image PO13, the region of the left front image PO14, the region of the right rear image PO23 area of the left rear image PO24), for example, two images (front image PO1 and right side image PO3) including the area of the right front image PO13 are converted into the front bird's-eye view image P1 and the right side bird's-eye view image P3, respectively. Convert.

そして、パラメータ設定部33は、前部カメラ11用に生成された合成カメラパラメータごとに得られた前方俯瞰画像P1における右前方俯瞰画像P13と、右側部カメラ13用に生成された合成カメラパラメータごとに得られた右側方俯瞰画像P3における右前方俯瞰画像P13との類似度をそれぞれ求める。類似度を求めるときは、前方俯瞰画像P1と右側方俯瞰画像P3とで、同一の車両姿勢パラメータに対応した合成パラメータで形成されたものを対象とする。類似度は、画像の類似度であり、2つの右前方俯瞰画像P13間での、画素値(信号値)の分布で形成されたパターンの類似している程度である。 Then, the parameter setting unit 33 sets the right front bird's-eye image P13 in the front bird's-eye image P1 obtained for each synthetic camera parameter generated for the front camera 11 and each synthetic camera parameter generated for the right side camera 13. The degree of similarity between the right side bird's-eye view image P3 obtained in 1 and the right front bird's-eye view image P13 is obtained. When calculating the degree of similarity, the front bird's-eye view image P1 and the right side bird's-eye view image P3 formed with synthesis parameters corresponding to the same vehicle posture parameter are targeted. The degree of similarity is the degree of similarity between images, and is the extent to which patterns formed by the distribution of pixel values (signal values) are similar between the two right front bird's-eye view images P13.

なお、類似度は、右前方俯瞰画像P13の全体を対象として求めてもよいが、例えば図2に示した右前方俯瞰画像P13の一部分の領域P13a(以下、一部領域P13aという)のみを対象として求めてもよい。このように、一部領域P13aのみを対象にして類似度を求めた方が、類似度の算出に要する演算の負荷を低減することができる。一部領域P13aは、図2に示した矩形の領域に限定されず、円形の領域や楕円形の領域であってもよいし、その他の多角形の領域であってもよい。 The degree of similarity may be obtained for the entire right front bird's-eye view image P13. can be obtained as In this way, obtaining the degree of similarity only for the partial region P13a can reduce the computational load required to calculate the degree of similarity. The partial area P13a is not limited to the rectangular area shown in FIG. 2, and may be a circular area, an elliptical area, or other polygonal areas.

また、一部領域P13aは、例えば、自車200の車幅方向に沿った寸法(画素数)と自車200の前後方向に沿った寸法(画素数)とが同じ矩形領域であることが好ましいが、そのような矩形領域に限定されない。また、一部領域P13aは、その内部に少なくとも8個の画素を含むものであればよい。 Further, the partial area P13a is preferably a rectangular area whose dimension (the number of pixels) along the vehicle width direction of the vehicle 200 and the dimension (the number of pixels) along the longitudinal direction of the vehicle 200 are the same. but is not limited to such rectangular regions. Also, the partial region P13a may include at least eight pixels inside.

また、パラメータ設定部33は、例えば、前方俯瞰画像P1における一部領域P13aと右側方俯瞰画像P3における一部領域P13aとの間で対応する画素値(信号値)のSSD(Sum of Squared Difference:差の2乗和)又はSAD(Sum of Absolute Difference:差の絶対値和)を評価値Sとして、類似度を評価する。したがって、パラメータ設定部33は、評価値Sが小さくなるにしたがって類似度が高く、評価値Sが大きくなるにしたがって類似度が低いと判定する。 In addition, the parameter setting unit 33 calculates, for example, an SSD (Sum of Squared Difference: The degree of similarity is evaluated using the sum of squares of differences) or SAD (Sum of Absolute Differences) as an evaluation value S. Therefore, the parameter setting unit 33 determines that the degree of similarity increases as the evaluation value S decreases, and that the degree of similarity decreases as the evaluation value S increases.

そして、パラメータ設定部33は、50個の車両姿勢パラメータにそれぞれ対応した合成カメラパラメータごとに得られた類似度の評価値Sが最も小さい(類似度が最も高い)合成カメラパラメータに対応した1つの車両姿勢パラメータを特定する。この特定された車両姿勢パラメータが、そのときの車両200の姿勢を表すものということができる。 Then, the parameter setting unit 33 sets one camera parameter corresponding to the synthesized camera parameter having the smallest similarity evaluation value S (highest similarity) obtained for each synthesized camera parameter corresponding to each of the 50 vehicle posture parameters. Identify vehicle attitude parameters. It can be said that the specified vehicle attitude parameter represents the attitude of vehicle 200 at that time.

パラメータ設定部33は、この特定された車両姿勢パラメータを、各カメラ11~14のカメラパラメータとそれぞれ合成して得られた4つの合成カメラパラメータを、パラメータ記録装置34に記憶させる。演算処理装置31は、その後に新たなキャリブレーションが行なわれるまでは、画像変換部32による各画像PO1~PO4を俯瞰画像P1~P4に画像変換し合成俯瞰画像APを生成するに際して、パラメータ記録装置34に記憶された合成カメラパラメータに基づいて行う。 The parameter setting unit 33 causes the parameter recording device 34 to store four synthesized camera parameters obtained by synthesizing the specified vehicle posture parameters with the camera parameters of the cameras 11 to 14, respectively. Until a new calibration is performed thereafter, the arithmetic processing unit 31 is used by the image conversion unit 32 to convert the images PO1 to PO4 into the bird's-eye images P1 to P4 to generate the composite bird's-eye view image AP. 34 based on the synthetic camera parameters stored in .

本実施形態のカメラECU30は、車両姿勢が初期状態とは異なる車両姿勢となったときも、その車両姿勢に適切に対応したキャリブレーションにより、精度のよい合成俯瞰画像APを生成することができる。 The camera ECU 30 of the present embodiment can generate a highly accurate synthetic bird's-eye view image AP through calibration appropriately corresponding to the vehicle attitude even when the vehicle attitude is different from the initial state.

なお、類似度を評価するに際して、上述した例では、右前方俯瞰画像P13の領域を適用したが、本発明に係るキャリブレーション装置及びキャリブレーション方法は、類似度を評価する領域として、右前方俯瞰画像P13の領域以外の他の重複領域(例えば、左前方俯瞰画像P14の領域、右後方俯瞰画像P23の領域、左後方俯瞰画像P24の領域)を適用してもよい。 In the example described above, when evaluating the degree of similarity, the region of the right front bird's-eye view image P13 is used. Other overlapping regions than the region of the image P13 (for example, the region of the left front overhead image P14, the region of the right rear overhead image P23, and the region of the left rear overhead image P24) may be applied.

図5はカメラECU30の具体的な処理の流れを説明するフローチャートである。上述したカメラECU30の処理について、図5に示したフローチャートを参照して、より具体的に説明する。 FIG. 5 is a flowchart for explaining a specific processing flow of the camera ECU 30. As shown in FIG. The processing of the camera ECU 30 described above will be described more specifically with reference to the flowchart shown in FIG.

まず、車両の製造時の工場における出荷前検査や、車両を販売する販売会社での納車前検査等により初期状態でのカメラ11~14のキャリブレーションが行なわれる(ステップ101(S101))。この初期状態でのキャリブレーションは、空車でかつ荷物の積載が無い、という積載状態で行われる。パラメータ設定部33は、初期状態での車両姿勢を基準にしたキャリブレーションによりカメラ11~14ごとのカメラパラメータを設定し、パラメータ記録装置34に、設定した4つのカメラパラメータを記憶させる。 First, the cameras 11 to 14 are calibrated in the initial state by a pre-shipment inspection at the vehicle manufacturing factory or a pre-delivery inspection at a sales company that sells the vehicle (step 101 (S101)). This calibration in the initial state is performed in a loaded state in which the vehicle is empty and no cargo is loaded. The parameter setting unit 33 sets camera parameters for each of the cameras 11 to 14 by calibration based on the vehicle attitude in the initial state, and causes the parameter recording device 34 to store the set four camera parameters.

ここで、車両姿勢の変動として、車両200のピッチ角αcarの変動による回転行列Rcar_pitchは下記式(1)、車両200のロール角γcarの変動による回転行列Rcar_rollは下記式(2)、車両200の沈み込み量Zcar_szの変動による並進行列Tcar_szは下記式(3)によりそれぞれ定義される。 Here, as changes in the vehicle posture, the rotation matrix Rcar_pitch due to changes in the pitch angle αcar of the vehicle 200 is represented by the following formula (1), the rotation matrix Rcar_roll due to changes in the roll angle γcar of the vehicle 200 is represented by the following formula (2), A translational matrix Tcar_sz due to variations in the amount of subduction Zcar_sz is defined by the following equation (3).

Figure 0007162489000001
Figure 0007162489000001

Figure 0007162489000002
Figure 0007162489000002

Figure 0007162489000003
Figure 0007162489000003

式(1),(2)より、車両200のピッチ角αcar及びロール角γcarの変動による車両姿勢の変動を示す車両姿勢パラメータ回転行列Rcar_matは下記式(4)となる。車両姿勢パラメータ回転行列Rcar_mat及び車両200の沈み込み量Zcar_szの並進行列Tcar_szは、パラメータ記録装置34に記憶されている。 From the equations (1) and (2), the vehicle attitude parameter rotation matrix Rcar_mat representing the variation of the vehicle attitude due to the variation of the pitch angle αcar and the roll angle γcar of the vehicle 200 is given by the following equation (4). The vehicle attitude parameter rotation matrix Rcar_mat and the translation matrix Tcar_sz of the subsidence amount Zcar_sz of the vehicle 200 are stored in the parameter recording device 34 .

Figure 0007162489000004
Figure 0007162489000004

また、初期状態のキャリブレーションで設定された各カメラ11~14のカメラパラメータをピッチ角αcam1、ロール角βcam1、ヨー角γcam1とすると、カメラパラメータの回転行列Rcam1は下記式(5)で定義される。このカメラパラメータの回転行列Rcam1も、パラメータ記録装置34に記憶されている。 Further, when the camera parameters of the cameras 11 to 14 set in the initial state calibration are pitch angle αcam1, roll angle βcam1, and yaw angle γcam1, the rotation matrix Rcam1 of the camera parameters is defined by the following equation (5). . The rotation matrix Rcam1 of this camera parameter is also stored in the parameter recording device 34. FIG.

Figure 0007162489000005
Figure 0007162489000005

演算処理装置31は、I/Oポート37を介して各カメラ11~14から入力された、各カメラ11~14で撮影された前方画像PO1、後方画像PO2、右側方画像PO3、左側方画像PO4をそれぞれ、自車200の上方から平面視として俯瞰して得られる前方俯瞰画像P1、後方俯瞰画像P2、右側方俯瞰画像P3、左側方俯瞰画像P4に変換する。ここで、演算処理装置31は、各俯瞰画像P1~P4を生成するに際して、パラメータ記録装置34に記憶されているカメラパラメータと車両姿勢パラメータとを合成した合成カメラパラメータに基づいて画像の変換処理を行う。 Arithmetic processing unit 31 receives front image PO1, rear image PO2, right side image PO3, and left side image PO4 captured by cameras 11 to 14, which are input from cameras 11 to 14 via I/O port 37. are converted into a front bird's-eye view image P1, a rear bird's-eye view image P2, a right side bird's-eye view image P3, and a left side bird's-eye view image P4 obtained by looking down from above the own vehicle 200 as a plan view. Here, when generating the bird's-eye view images P1 to P4, the arithmetic processing unit 31 performs image conversion processing based on synthesized camera parameters obtained by synthesizing camera parameters and vehicle posture parameters stored in the parameter recording device 34. conduct.

ここで、初期状態である基準の積載状態(初期のキャリブレーションを行う状態)では、ピッチ角αcar及びロール角γcarはいずれも0であるから、式(1),(2)はいずれも単位行列となり、式(4)も単位行列となる。また、初期状態である基準の積載状態(初期のキャリブレーションを行う状態)では、車両200の沈み込み量Zcar_szも0(ゼロ)であるから、式(3)の並進行列Tcar_szは零行列となる。したがって、初期状態でのキャリブレーションでは、カメラパラメータと車両姿勢パラメータとを合成した合成カメラパラメータは、結果的にカメラパラメータと同じになり、演算処理装置31は、カメラパラメータにしたがった画像変換により、俯瞰画像を生成する。 Here, since the pitch angle αcar and the roll angle γcar are both 0 in the reference loading state (initial calibration state), which is the initial state, both equations (1) and (2) are unit matrices Thus, equation (4) also becomes a unit matrix. In addition, in the reference loading state (initial calibration state), which is the initial state, the subduction amount Zcar_sz of the vehicle 200 is also 0 (zero), so the parallel matrix Tcar_sz in Equation (3) is a zero matrix. . Therefore, in the calibration in the initial state, the synthesized camera parameters obtained by synthesizing the camera parameters and the vehicle posture parameters become the same as the camera parameters as a result. Generate a bird's-eye view image.

自車200の実際の使用状態では、少なくとも運転者が運転席に着席するため、空車状態の初期状態に対して車両姿勢が変動する(S102)。また、自車200の実際の使用状態では、荷物等を積載することもあり、これによっても車両姿勢は変動する(S102)。車両姿勢の変動により、車載カメラ10で撮影された画像を俯瞰画像に変換するに際して、車両姿勢の変動を加味した新たなキャリブレーションでカメラパラメータを補正して俯瞰変換を行う必要がある。 In the actual use state of the own vehicle 200, at least the driver sits in the driver's seat, so the vehicle posture changes from the initial state of the empty state (S102). In addition, in the actual use state of the own vehicle 200, luggage may be loaded, and this also changes the vehicle posture (S102). When converting an image captured by the on-vehicle camera 10 into a bird's-eye view image due to changes in the vehicle posture, it is necessary to perform bird's-eye conversion by correcting the camera parameters with new calibration that takes into account the change in the vehicle posture.

ここで、新たなキャリブレーションは、前述したように、カメラ11,13ごとに50個の合成カメラパラメータによってそれぞれ俯瞰画像P1,P3を生成し、類似度の評価値Sの大小関係を比較するという処理を行う。この新たなキャリブレーションは、自車200が停車している状態で行う。 Here, as described above, the new calibration is to generate overhead images P1 and P3 using 50 synthetic camera parameters for each of the cameras 11 and 13 and compare the magnitude relationship of the similarity evaluation value S. process. This new calibration is performed while the vehicle 200 is stopped.

そこで、カメラECU30は、車速センサ20が検出した自車200の車速を取得し(S103)、自車200の車速が0(ゼロ)になるまで、すなわち、自車200が停車するのを待つ(S104)。 Therefore, the camera ECU 30 acquires the vehicle speed of the vehicle 200 detected by the vehicle speed sensor 20 (S103), and waits until the vehicle speed of the vehicle 200 becomes 0 (zero), that is, until the vehicle 200 stops (S103). S104).

自車200が停車すると(S104にてYES)、カメラECU30は、車載カメラ10から画像を取得する(S105)。自車200が停車するまでは、カメラECU30は、車載カメラ10の画像を取得しない(S104にてNO)。 When own vehicle 200 stops (YES at S104), camera ECU 30 acquires an image from vehicle-mounted camera 10 (S105). Camera ECU 30 does not acquire an image from vehicle-mounted camera 10 until host vehicle 200 stops (NO in S104).

自車200が停車してカメラECU30が車載カメラ10から画像を取得すると、カメラECU30は、パラメータ記録装置34に格納されている、想定される例えば50個の車両姿勢にそれぞれ対応した車両姿勢パラメータと各カメラパラメータとをそれぞれ合成した合成カメラパラメータを生成する。合成カメラパラメータは、車両姿勢パラメータの数に対応してカメラ11,13ごとに50個である。 When the vehicle 200 stops and the camera ECU 30 acquires an image from the vehicle-mounted camera 10, the camera ECU 30 stores the vehicle attitude parameters corresponding to, for example, 50 assumed vehicle attitudes stored in the parameter recording device 34. Synthetic camera parameters are generated by synthesizing each camera parameter. There are 50 synthesized camera parameters for each camera 11, 13 corresponding to the number of vehicle attitude parameters.

合成カメラパラメータの回転行列Rcam2は、下記式(6)で表される。 A rotation matrix Rcam2 of the combined camera parameters is represented by the following equation (6).

Figure 0007162489000006
Figure 0007162489000006

そして、カメラECU30の画像変換部32は、ステップ105(S105)で取得した画像に対して、各合成カメラパラメータによる画像変換により俯瞰画像P1,P3を生成する(S106)。パラメータ設定部33は、前方俯瞰画像P1における一部領域P13aを構成する画素の信号値及び右側方俯瞰画像P3における一部領域P13aを構成する画素の信号値をそれぞれ取得し(S107)、2つの一部領域P13a,P13aの類似度の評価値Sを算出する(S108)。評価値Sとしては例えばSADを適用するが、前述したようにSSDを適用してもよい。 Then, the image conversion unit 32 of the camera ECU 30 generates bird's-eye view images P1 and P3 by performing image conversion on the image acquired in step 105 (S105) using each synthesized camera parameter (S106). The parameter setting unit 33 acquires the signal values of the pixels forming the partial region P13a in the front bird's-eye view image P1 and the signal values of the pixels forming the partial region P13a in the right side bird's-eye view image P3 (S107). An evaluation value S of the degree of similarity between the partial regions P13a, P13a is calculated (S108). For example, SAD is applied as the evaluation value S, but SSD may be applied as described above.

パラメータ設定部33は、50個の車両姿勢パラメータにそれぞれ対応した合成カメラパラメータごとに得られた一部領域P13aについてそれぞれ類似度の評価値Sを算出して、評価値S同士を大小比較し、評価値Sが最も小さい値となる合成カメラパラメータを特定する(S109)。 The parameter setting unit 33 calculates the similarity evaluation value S for each of the partial regions P13a obtained for each synthesized camera parameter corresponding to each of the 50 vehicle posture parameters, compares the evaluation values S, and A composite camera parameter with the smallest evaluation value S is identified (S109).

そして、パラメータ設定部33は、特定された合成カメラパラメータを構成している車両姿勢パラメータを特定し、特定された車両姿勢パラメータと、各カメラ11~14の初期状態でのカメラパラメータとをそれぞれ合成して得られた合成カメラパラメータを、パラメータ記録装置34に記憶させて(S110)、新たなキャリブレーションを終了する。 Then, the parameter setting unit 33 identifies the vehicle attitude parameters that make up the identified combined camera parameters, and synthesizes the identified vehicle attitude parameters and the camera parameters in the initial state of the cameras 11 to 14, respectively. The synthesized camera parameters thus obtained are stored in the parameter recording device 34 (S110), and the new calibration ends.

ここで、ステップ109(S109)における評価値Sが最も小さくなる車両姿勢パラメータの特定方法の一例を説明する。 Here, an example of a method of specifying the vehicle posture parameter that minimizes the evaluation value S in step 109 (S109) will be described.

演算処理装置31は、式(6)で表された合成カメラパラメータの回転行列Rcam2を分解することにより、車両姿勢のピッチ角αcarとロール角γcarとが変動した後の合成カメラパラメータのピッチ角、ロール角、ヨー角という角度を算出することができる。この算出方法は公知のため、説明を省略する。 The arithmetic processing unit 31 decomposes the rotation matrix Rcam2 of the synthesized camera parameters expressed by Equation (6) to obtain the pitch angle of the synthesized camera parameters after the pitch angle αcar and the roll angle γcar of the vehicle attitude have changed, Angles such as roll angle and yaw angle can be calculated. Since this calculation method is publicly known, the explanation is omitted.

次に、車両姿勢パラメータの変化に伴って変化した合成カメラパラメータの並進成分の算出方法を示す。合成カメラパラメータの並進成分x,y,zのうち並進成分xと並進成分yは、車両姿勢が変動しても変動量は微小のため0(ゼロ)とする。一方、高さ方向の変動に対応した並進成分zについては微小とは言えないため算出対象とする。 Next, a method of calculating the translational component of the synthesized camera parameters that have changed with changes in the vehicle attitude parameters will be described. Of the translational components x, y, and z of the synthesized camera parameters, the translational component x and the translational component y are set to 0 (zero) because the amount of variation is minute even if the vehicle posture changes. On the other hand, the translational component z corresponding to the variation in the height direction cannot be said to be very small, so it is used as a calculation target.

車両姿勢が変動するときの回転中心の真値の座標は不明であるため、車両200のピッチ角αcarの回転中心をCcar_pitch(下記式(7))、ロール角γcarの回転中心をCcar_roll(下記式(8))とする。これらの回転中心の座標は必ずしも真値である必要はなく、回転中心Ccar_rollは、例えば前部カメラ11の位置又は車両200の車幅方向の中央を仮に回転中心とした仮値でもよい。 Since the coordinates of the true value of the rotation center when the vehicle attitude changes are unknown, the rotation center of the pitch angle αcar of the vehicle 200 is Ccar_pitch (equation (7) below), and the rotation center of the roll angle γcar is Ccar_roll (equation below (8)). These rotation center coordinates do not necessarily have to be true values, and the rotation center Ccar_roll may be a temporary value with the position of the front camera 11 or the center of the vehicle 200 in the vehicle width direction as the rotation center.

また、車両姿勢の変動の並進行列をTcar_sz(上記式(3))、車両姿勢の変動前のカメラパラメータの並進行列をTcam1(下記式(9))、車両姿勢の変動後の合成カメラパラメータの並進行列をTcam2(下記式(10))、と定義すると、車両姿勢の変動後の合成カメラパラメータの並進行列Tcam2は、下記式(11)により求められる。 Further, Tcar_sz (formula (3) above) is the translation matrix of the variation in the vehicle attitude, Tcam1 (formula (9) below) is the translation matrix of the camera parameters before the variation in the vehicle attitude, and If the translation matrix is defined as Tcam2 (equation (10) below), the translation matrix Tcam2 of the synthesized camera parameters after the change in vehicle attitude is obtained by the following equation (11).

Figure 0007162489000007
Figure 0007162489000007

Figure 0007162489000008
Figure 0007162489000008

Figure 0007162489000009
Figure 0007162489000009

Figure 0007162489000010
Figure 0007162489000010

Figure 0007162489000011
Figure 0007162489000011

式(11)の右辺において、未知行列はRcar_pitch,Rcar_roll,Tcar_szである。したがって、これらの3つの行列が既知となれば、左辺の車両姿勢の変動後の合成カメラパラメータの並進行列Tcam2を求めることができる。これらの3つの行列は、ピッチ角αcar、ロール角γcar、沈み込み量Zcar_szを求めることで既知となる。 On the right side of equation (11), the unknown matrices are Rcar_pitch, Rcar_roll, Tcar_sz. Therefore, if these three matrices are known, it is possible to obtain the translation matrix Tcam2 of the synthesized camera parameters after the change in the vehicle attitude on the left side. These three matrices are known by obtaining the pitch angle αcar, the roll angle γcar, and the subduction amount Zcar_sz.

以上をまとめると、「車両姿勢の変動後の合成カメラパラメータの角度成分」は、ピッチ角αcarとロール角γcarとが既知となれば一意に特定することができ、「車両姿勢の変動後の合成カメラパラメータの並進成分(zのみ)」は、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szが既知となれば一意に特定することができる。 In summary, the "angle component of the synthesized camera parameters after the change in vehicle attitude" can be uniquely specified if the pitch angle αcar and the roll angle γcar are known. The translation component (only z) of the camera parameters can be uniquely specified if the pitch angle αcar, roll angle γcar, and sinking amount Zcar_sz are known.

次に、類似度の評価値Sが最も小さい車両姿勢に対応したピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szを特定する方法について説明する。これら3つの車両姿勢を表すパラメータは、最適化手法を用いて解を求める。 Next, a method of specifying the pitch angle αcar, the roll angle γcar, and the amount of subduction Zcar_sz corresponding to the vehicle posture with the smallest similarity evaluation value S will be described. These three vehicle attitude parameters are solved using an optimization technique.

上述したように、類似度の評価値Sが最も小さくなる車両姿勢パラメータを求めるため、最適化の評価関数は評価値Sに設定する。この評価関数は多峰性関数であるため、多峰性関数の大域的最適解を得られる手法として、例えば下記の3つのうちいずれか1つの手法を適用することができるが、本実施形態においては、例えば(1)のPSOの手法を適用した場合について説明する。
(1)PSO(Particle Swarm Optimization)
(2)ABC(Artificial Bee Colony)
(3)FA(Firefly Algorithm)
As described above, the evaluation function for optimization is set to the evaluation value S in order to obtain the vehicle posture parameter that minimizes the evaluation value S of the similarity. Since this evaluation function is a multi-peak function, any one of the following three methods can be applied as a method for obtaining the global optimum solution of the multi-peak function. For example, the case where the PSO technique of (1) is applied will be described.
(1) PSO (Particle Swarm Optimization)
(2) ABC (Artificial Bee Colony)
(3) FA (Firefly Algorithm)

PSOは、多次元の評価空間内に評価用粒子を配置し、更新を指定回数繰り返して最適解を求める手法である。粒子は、自身や他の粒子の評価結果に基づいて更新方法を決定する。最適な粒子数や更新回数は評価対象によって異なる。PSOの更新方法は以下の式(12),(13)で定義される。 PSO is a method of arranging particles for evaluation in a multi-dimensional evaluation space and repeating update a specified number of times to obtain an optimum solution. Particles decide how to update based on the evaluation results of themselves and other particles. The optimal number of particles and the number of updates differ depending on the evaluation target. The PSO update method is defined by the following equations (12) and (13).

Figure 0007162489000012
Figure 0007162489000012

Figure 0007162489000013
Figure 0007162489000013

ここで、xは粒子の現在位置を示す。本実施形態においては、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szがこの現在位置xに定義される。vは速度ベクトルであり、更新1回分の変化量が定義されている。iは粒子番号(※粒子数が100個の場合、i=1~100とナンバリングされる)。kは繰り返し回数である。wは慣性項であり、一般的に1.0より少ない値が定義される。c1,c2は重み付け用係数であり、一般的に1.0付近の値が定義される。r1,r2は0~1の間の乱数である。pbestは、その粒子個体がこれまで評価した中で最も最良な位置、gbestは、粒子全体がこれまで評価した中で最良の位置である。 Here, x indicates the current position of the particle. In this embodiment, the pitch angle αcar, the roll angle γcar, and the sinking amount Zcar_sz are defined at this current position x. v is a velocity vector, and the amount of change for one update is defined. i is the particle number (*If the number of particles is 100, i = 1 to 100). k is the number of iterations. w is the inertia term and is generally defined to be less than 1.0. c1 and c2 are weighting coefficients and are generally defined to have values around 1.0. r1 and r2 are random numbers between 0 and 1; pbest is the best position that the individual particle has evaluated so far, gbest is the best position that the whole particle has evaluated so far.

一例として、ピッチ角αcarのみに着目し最適解を求める。粒子の数を50個、更新回数を100回、ピッチ角αcarの評価空間範囲を-5.0[deg]~+5.0[deg]とする。この角度範囲は、車両姿勢として想定される角度範囲である。 As an example, the optimum solution is obtained by paying attention only to the pitch angle αcar. Assume that the number of particles is 50, the number of updates is 100, and the evaluation space range of the pitch angle α car is −5.0 [deg] to +5.0 [deg]. This angle range is an angle range assumed as the vehicle attitude.

まず、-5.0[deg]~+5.0[deg]の角度範囲で、互いに異なるピッチ角αcarをランダムに定義した粒子(現在位置x)を50個定義する。また、互いに異なる速度ベクトルvを0~1の範囲でランダムに50個定義する。 First, 50 particles (current position x) are randomly defined with mutually different pitch angles α car in the angle range of −5.0 [deg] to +5.0 [deg]. Also, 50 different velocity vectors v are randomly defined in the range of 0-1.

式(12)と同様に、50個の粒子(の現在位置x)に50個の速度ベクトルvを加算する。加算済みの粒子の50個のピッチ角αcarの全てに対応した評価値Sを求め、その評価値Sを各粒子の最良の値pbestとし、最も評価値Sが小さい粒子をgbestとする。これで、式(13)により、k=0のときの速度ベクトルvと現在位置x1が求められる。 Similar to Equation (12), 50 velocity vectors v are added to 50 particles (current positions x). Evaluation values S corresponding to all 50 pitch angles αcar of the added particles are obtained, the evaluation values S are set as the best value pbest of each particle, and the particle with the smallest evaluation value S is set as gbest. Thus, the velocity vector v and the current position x1 when k=0 are obtained from equation (13).

以後、k=0のときの速度ベクトルvと現在位置x1に基づいて、繰り返し回数kを1,2,…,50と順次増やして、その都度、xの値を繰り返し求めると、50個の粒子の全てが、特定のピッチ角αcar付近に集まり、その特定のピッチ角αcar付近に集まった粒子のうちで最も評価値Sが小さい粒子を最終的なgbestとし、これを採用する。採用された粒子のピッチ角αcarが、特定すべき車両姿勢を構成するピッチ角αcarとなる。 After that, based on the velocity vector v when k=0 and the current position x1, the number of iterations k is sequentially increased from 1, 2, . all gather around a specific pitch angle α car , and the particle with the smallest evaluation value S among the particles gathered around the specific pitch angle α car is taken as the final gbest and adopted. The pitch angle αcar of the adopted particles becomes the pitch angle αcar that constitutes the vehicle attitude to be identified.

なお、繰り返し回数kを順次増やして、その都度、xの値を繰り返し求めたとき、50個の粒子の全てが、特定のピッチ角αcar付近に集まる状況というのは、例えば、最終的に求められる最適解が1.0[deg]であったとすると、繰り返し回数が小さい初期においては、ピッチ角αcarがランダムな値を示すものの、繰り返し回数が増えるにしたがって、ピッチ角αcarが最適解である1.0[deg]付近(例えば、…,0.997,0.998,0.9998,1.0001,1.0003[deg])に収束した状況である。 Incidentally, when the number of iterations k is sequentially increased and the value of x is repeatedly obtained each time, the situation in which all 50 particles gather near a specific pitch angle α is finally obtained, for example, Assuming that the optimum solution is 1.0 [deg], the pitch angle α car shows a random value at the beginning when the number of repetitions is small, but as the number of repetitions increases, the pitch angle α car becomes the optimum solution. It is in a state of convergence around 0 [deg] (for example, 0.997, 0.998, 0.9998, 1.0001, 1.0003 [deg]).

上述の説明は、現在位置xとしてピッチ角αcarのみを適用したものであるが、現在位置xとして、ロール角γcar及び沈み込み量Zcar_szを同時に適用することで、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szの各最適解を求めることができ、これにより、車両姿勢を特定する3つのパラメータを同時に求めることができる。以上により、演算処理装置31は、最も小さい評価値S(類似度が最も高い)に対応した車両姿勢パラメータを求めることができる。 In the above description, only the pitch angle αcar is applied as the current position x. Each optimum solution for the loading amount Zcar_sz can be determined, thereby simultaneously determining the three parameters that specify the vehicle attitude. As described above, the arithmetic processing unit 31 can obtain the vehicle attitude parameter corresponding to the smallest evaluation value S (highest similarity).

そして、パラメータ設定部33は、求められた車両姿勢パラメータを、各カメラ11~14にそれぞれ対応した4つのカメラパラメータと合成して4つの合成カメラパラメータを求める。このとき、合成カメラパラメータの角度成分(ピッチ角、ロール角、ヨー角)については、式(4)で求めた値を採用すればよい。合成カメラパラメータの並進成分(x,y,z)については、x,yは設計値又は車両200の製造工場若しくは販売会社での初期状態のキャリブレーションで設定された値をそのまま継続して採用し、zは式(11)で求められた車両姿勢の変動後の合成カメラパラメータの並進行列Tcam2における沈み込み量Zcam2を採用すればよい。 Then, the parameter setting unit 33 synthesizes the calculated vehicle attitude parameter with the four camera parameters corresponding to the respective cameras 11 to 14 to obtain four synthesized camera parameters. At this time, for the angle components (pitch angle, roll angle, yaw angle) of the synthesized camera parameters, the values obtained by Equation (4) may be used. As for the translation components (x, y, z) of the synthetic camera parameters, x and y continue to adopt the design values or the values set in the initial state calibration at the vehicle 200 manufacturing factory or sales company. , z may adopt the amount of subsidence Zcam2 in the translational matrix Tcam2 of the synthesized camera parameters after the change in the vehicle attitude obtained by the equation (11).

以上、詳細に説明したように、本実施形態のカメラECU30によれば、車両200の前後方向に延びた直線が存在しない環境下であっても、カメラパラメータを補正することができる。 As described above in detail, according to the camera ECU 30 of the present embodiment, camera parameters can be corrected even in an environment where there is no straight line extending in the front-rear direction of the vehicle 200 .

また、本実施形態のカメラECU30によれば、合成俯瞰画像APにおいて重複する領域である4つの領域(右前方俯瞰画像P13の領域、左前方俯瞰画像P14の領域、右後方俯瞰画像P23の領域、左後方俯瞰画像P24)のうち1つの重複領域(例えば、右前方俯瞰画像P13の領域)のみの画像の類似度に基づいて、車両姿勢パラメータを特定することができるため、4つの重複領域の全ての画像について類似度を評価する場合に比べて、演算負荷を低減させることができる。 Further, according to the camera ECU 30 of the present embodiment, four areas (the area of the right front bird's-eye image P13, the area of the left front bird's-eye image P14, the area of the right rear bird's-eye image P23, Since the vehicle posture parameter can be specified based on the similarity of only one overlapping region (for example, the region of the right front bird's-eye image P13) of the left rear bird's-eye image P24), all four overlapping regions can be identified. , the computational load can be reduced compared to the case of evaluating the similarity of the images.

また、本実施形態のカメラECU30によれば、パラメータ記録装置34が、車両200の複数(例えば50個)の車両姿勢に対応した、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szの組み合わせで特定される車両姿勢パラメータを、予め記憶しているため、新たなキャリブレーションの都度、これらの複数の車両姿勢パラメータを演算して設定する必要が無く、演算負荷を軽減することができる。なお、パラメータ記録装置34が記憶している車両姿勢に対応した、ピッチ角αcar、ロール角γcar及び沈み込み量Zcar_szの組み合わせで特定される車両姿勢パラメータは、50個に限定されず、50個未満の数であっても50個を超える数であってもよく、演算負荷や演算コストなどに応じて設定することができる。 Further, according to the camera ECU 30 of the present embodiment, the parameter recording device 34 specifies combinations of the pitch angle αcar, the roll angle γcar, and the amount of subduction Zcar_sz corresponding to a plurality (for example, 50) of vehicle attitudes of the vehicle 200. Since the vehicle attitude parameters to be used are stored in advance, there is no need to calculate and set the plurality of vehicle attitude parameters each time a new calibration is performed, and the calculation load can be reduced. Note that the number of vehicle attitude parameters specified by the combination of the pitch angle αcar, the roll angle γcar, and the amount of subduction Zcar_sz corresponding to the vehicle attitude stored in the parameter recording device 34 is not limited to 50, and is less than 50. , or the number may exceed 50, and can be set according to the calculation load, the calculation cost, and the like.

10 車載カメラ
20 車速センサ
30 カメラECU
31 演算処理装置
32 画像変換部
33 パラメータ設定部
34 パラメータ記録装置
P1 前方俯瞰画像
P13 右前方俯瞰画像
P13a 一部領域
P3 右側方俯瞰画像
10 vehicle-mounted camera 20 vehicle speed sensor 30 camera ECU
31 Arithmetic processing device 32 Image conversion unit 33 Parameter setting unit 34 Parameter recording device P1 Front bird's-eye view image P13 Right front bird's-eye view image P13a Partial region P3 Right side bird's-eye view image

Claims (4)

車両の異なる位置にそれぞれ設置された複数の撮像装置により、互いに重複した領域を撮影範囲に含んで撮影された画像をそれぞれ俯瞰画像に変換する画像変換部と、
前記複数の撮像装置ごとの、初期状態の車両姿勢における前記車両に対する姿勢に対応して予め設定されたカメラパラメータ及び前記車両の複数の姿勢にそれぞれ対応した複数の車両姿勢パラメータを記憶したパラメータ記憶部と、
複数の前記車両姿勢パラメータのそれぞれと前記カメラパラメータとを合成した、車両姿勢を加味した複数の合成カメラパラメータを生成し、複数の前記合成カメラパラメータに基づいて、前記重複した領域のうち1つの重複した領域を含む2つの画像を前記画像変換部によりそれぞれ俯瞰画像に変換したときの、前記1つの重複した領域の類似度をそれぞれ求め、複数の前記合成カメラパラメータに対応して得られた複数の前記類似度のうち最も高い類似度に対応した1つの前記車両姿勢パラメータを特定し、特定された1つの前記車両姿勢パラメータと複数の前記撮像装置にそれぞれ対応した前記カメラパラメータとをそれぞれ合成した前記合成カメラパラメータを、前記画像変換部による前記俯瞰画像に変換するカメラパラメータとして設定するパラメータ設定部と、を備えたキャリブレーション装置。
an image conversion unit that converts each of the images captured by a plurality of imaging devices installed at different positions of the vehicle into a bird's-eye view image including overlapping areas in the imaging range;
A parameter storage unit storing camera parameters preset corresponding to attitudes of the vehicle in an initial vehicle attitude and a plurality of vehicle attitude parameters respectively corresponding to the plurality of attitudes of the vehicle, for each of the plurality of imaging devices. When,
generating a plurality of synthesized camera parameters that take into account the vehicle orientation by synthesizing each of the plurality of vehicle orientation parameters and the camera parameters; The similarity of each of the overlapped regions is obtained when two images including the regions that are overlapped are converted into bird's-eye images by the image conversion unit, and a plurality of obtained corresponding to the plurality of synthesized camera parameters are calculated. One vehicle attitude parameter corresponding to the highest similarity among the similarities is identified, and the identified one vehicle attitude parameter and the camera parameters respectively corresponding to the plurality of imaging devices are synthesized. and a parameter setting unit that sets synthetic camera parameters as camera parameters for converting into the bird's-eye view image by the image conversion unit.
前記車両姿勢パラメータは、前記車両のピッチ角、ロール角及び沈み込み量の組み合わせで特定される請求項1に記載のキャリブレーション装置。 2. The calibration device according to claim 1, wherein the vehicle attitude parameter is specified by a combination of pitch angle, roll angle and subduction amount of the vehicle. 前記パラメータ記憶部は、前記ピッチ角、前記ロール角及び前記沈み込み量の組み合わせで特定される前記車両姿勢パラメータを、これら前記ピッチ角、前記ロール角及び前記沈み込み量のいずれか少なくとも1つが異なる組み合わせの前記車両姿勢パラメータを複数個、予め記憶している請求項2に記載のキャリブレーション装置。 The parameter storage unit stores the vehicle attitude parameter specified by the combination of the pitch angle, the roll angle, and the amount of sagging, wherein at least one of the pitch angle, the roll angle, and the amount of sagging is different. 3. The calibration device according to claim 2, wherein a plurality of combinations of said vehicle posture parameters are stored in advance. 車両の異なる位置にそれぞれ設置された複数の撮像装置により、互いに重複した領域を撮影範囲に含んで撮影された画像をそれぞれ俯瞰画像に変換する、前記複数の撮像装置ごとのカメラパラメータを校正するに際して、
前記車両の複数の姿勢にそれぞれ対応した複数の車両姿勢パラメータのそれぞれと前記複数の撮像装置ごとの、初期状態の車両姿勢における前記車両に対する姿勢に対応して予め設定されたカメラパラメータとを合成した、車両姿勢を加味した複数の合成カメラパラメータを生成し、
複数の前記合成カメラパラメータに基づいて、前記重複した領域のうち1つの重複した領域を含む2つの画像をそれぞれ俯瞰画像に変換したときの、前記1つの重複した領域の類似度をそれぞれ求め、
複数の前記合成カメラパラメータに対応して得られた複数の前記類似度のうち最も高い類似度に対応した1つの前記車両姿勢パラメータを特定し、
特定された1つの前記車両姿勢パラメータと複数の前記撮像装置にそれぞれ対応した前記カメラパラメータとをそれぞれ合成した前記合成カメラパラメータを、前記俯瞰画像に変換するカメラパラメータとして設定するキャリブレーション方法。
When calibrating the camera parameters for each of the plurality of imaging devices, each of which is captured by a plurality of imaging devices installed at different positions on the vehicle and whose imaging range includes areas that overlap each other and is converted into a bird's-eye view image. ,
Each of a plurality of vehicle attitude parameters respectively corresponding to a plurality of attitudes of the vehicle and a camera parameter set in advance corresponding to the attitude with respect to the vehicle in the initial state of the vehicle attitude for each of the plurality of imaging devices are synthesized. , generate multiple synthetic camera parameters that take into account the vehicle posture,
Based on the plurality of synthetic camera parameters, each similarity of the one overlapping area when two images including one overlapping area among the overlapping areas are converted into a bird's-eye view image respectively . ask,
identifying one vehicle posture parameter corresponding to the highest degree of similarity among the plurality of degrees of similarity obtained corresponding to the plurality of synthetic camera parameters;
A calibration method of setting the synthesized camera parameters obtained by synthesizing the one specified vehicle posture parameter and the camera parameters respectively corresponding to the plurality of imaging devices as camera parameters for converting into the bird's-eye view image.
JP2018192084A 2018-10-10 2018-10-10 CALIBRATION DEVICE AND CALIBRATION METHOD Active JP7162489B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018192084A JP7162489B2 (en) 2018-10-10 2018-10-10 CALIBRATION DEVICE AND CALIBRATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018192084A JP7162489B2 (en) 2018-10-10 2018-10-10 CALIBRATION DEVICE AND CALIBRATION METHOD

Publications (2)

Publication Number Publication Date
JP2020060976A JP2020060976A (en) 2020-04-16
JP7162489B2 true JP7162489B2 (en) 2022-10-28

Family

ID=70220008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018192084A Active JP7162489B2 (en) 2018-10-10 2018-10-10 CALIBRATION DEVICE AND CALIBRATION METHOD

Country Status (1)

Country Link
JP (1) JP7162489B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112702518B (en) * 2020-12-24 2023-04-07 维沃移动通信(杭州)有限公司 Shooting method and device and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215063A (en) 2010-04-01 2011-10-27 Tottori Univ Camera attitude parameter estimation device
JP2016001378A (en) 2014-06-11 2016-01-07 株式会社デンソー Calibration device of on-vehicle camera
JP2016070814A (en) 2014-09-30 2016-05-09 クラリオン株式会社 Camera calibration device and camera calibration system
JP2018157496A (en) 2017-03-21 2018-10-04 クラリオン株式会社 Calibration device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215063A (en) 2010-04-01 2011-10-27 Tottori Univ Camera attitude parameter estimation device
JP2016001378A (en) 2014-06-11 2016-01-07 株式会社デンソー Calibration device of on-vehicle camera
JP2016070814A (en) 2014-09-30 2016-05-09 クラリオン株式会社 Camera calibration device and camera calibration system
JP2018157496A (en) 2017-03-21 2018-10-04 クラリオン株式会社 Calibration device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Cheng-Ming Huang;Ting-Yi Yang;Kuang-Yow Lian;Shih-Che Chien;Min-Fong Luo,Fish-eye cameras calibration for vehicle around view monitoring system,2014 IEEE International Conference on Consumer Electronics - Taiwan,IEEE,2014年,pp.225-226,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6904070
鄒 武合,レーザポインターを用いた視野の重ならない車載カメラの相対姿勢の算出,電子情報通信学会論文誌D VolumeJ97-D No.11,日本,電子情報通信学会,2014年11月01日,Vol.J97-D No.11,P.1651-1659

Also Published As

Publication number Publication date
JP2020060976A (en) 2020-04-16

Similar Documents

Publication Publication Date Title
JP5072576B2 (en) Image display method and image display apparatus
EP3367677B1 (en) Calibration apparatus, calibration method, and calibration program
JP5455124B2 (en) Camera posture parameter estimation device
JP5444139B2 (en) Image calibration method and apparatus
KR101265012B1 (en) Calibration device, method, and program for onboard camera
US9981605B2 (en) Surround-view camera system (VPM) and vehicle dynamic
JP5133783B2 (en) In-vehicle device
EP2523163B1 (en) Method and program for calibrating a multicamera system
EP1850595B1 (en) Periphery supervising device, and periphery supervising method
JP6565769B2 (en) In-vehicle camera mounting angle detection device, mounting angle calibration device, mounting angle detection method, mounting angle calibration method, and computer program
KR20170077223A (en) Online calibration of a motor vehicle camera system
CN105594203B (en) The method of adjustment of vehicle-surroundings image display device and camera
EP1828979B1 (en) Method for determining the position of an object from a digital image
US20130222793A1 (en) Method and apparatus for wheel alignment
JP5240527B2 (en) Car camera calibration apparatus, method, and program
US20090040312A1 (en) Calibration apparatus and method thereof
EP3505865B1 (en) On-vehicle camera, method for adjusting on-vehicle camera, and on-vehicle camera system
JP7162489B2 (en) CALIBRATION DEVICE AND CALIBRATION METHOD
US10083509B2 (en) Image calibration
JP2013024712A (en) Method and system for calibrating multiple camera
JP2020107938A (en) Camera calibration device, camera calibration method, and program
WO2013154085A1 (en) Calibration method and device
JP2015106777A (en) Image processing system, operation support device, navigation device, and camera device
KR101989370B1 (en) method of providing dynamic automatic calibratiion of SVM by use of lane recognition
JP2008042664A (en) Image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221018

R150 Certificate of patent or registration of utility model

Ref document number: 7162489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150