JP2009267602A - Vehicle periphery monitoring apparatus, and setting correcting method of camera installing position and posture information which is applicable thereto - Google Patents

Vehicle periphery monitoring apparatus, and setting correcting method of camera installing position and posture information which is applicable thereto Download PDF

Info

Publication number
JP2009267602A
JP2009267602A JP2008112549A JP2008112549A JP2009267602A JP 2009267602 A JP2009267602 A JP 2009267602A JP 2008112549 A JP2008112549 A JP 2008112549A JP 2008112549 A JP2008112549 A JP 2008112549A JP 2009267602 A JP2009267602 A JP 2009267602A
Authority
JP
Japan
Prior art keywords
image
vehicle
distortion correction
distortion
posture information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008112549A
Other languages
Japanese (ja)
Other versions
JP5173551B2 (en
Inventor
Kosuke Imamura
浩輔 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2008112549A priority Critical patent/JP5173551B2/en
Publication of JP2009267602A publication Critical patent/JP2009267602A/en
Application granted granted Critical
Publication of JP5173551B2 publication Critical patent/JP5173551B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide "a vehicle periphery monitoring apparatus and a setting correcting method of camera installing position and posture information" capable of inexpensively displaying a vehicle periphery image excellent in visibility and having little deviation between viewpoint converted images. <P>SOLUTION: An installing position and posture information setting correcting means 51 corrects the setting of an on-vehicle camera installing position and posture information on the basis of a vehicle periphery image 1 subjected to distortion correction processing which includes an image 59 of a first image photographing object. At this time, for the seam portion, an error of a position of a feature point 60 in the image 59 of the first image photographing object is detected, and the proper installing position and posture information is actually measured by correction for eliminating the detected error, and correction by linear interpolation is enough for a region other than the seam portion in the viewpoint converted image 1. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両周辺監視装置およびこれに適用されるカメラ取り付け位置・姿勢情報の設定修正方法に係り、特に、車両周辺画像の生成に用いられる車載カメラの取り付け位置・姿勢情報の設定を修正するのに好適な車両周辺監視装置およびこれに適用されるカメラ取り付け位置・姿勢情報の設定修正方法に関する。   The present invention relates to a vehicle periphery monitoring apparatus and a camera attachment position / posture information setting correction method applied to the vehicle periphery monitoring apparatus, and more particularly, to correct a setting of an in-vehicle camera attachment position / posture information used for generating a vehicle peripheral image. The present invention relates to a vehicle periphery monitoring apparatus suitable for the above and a method for correcting setting of camera mounting position / posture information applied thereto.

近年、車載カメラ技術および画像処理技術の進展により、駐車場等における自車両の安全かつ円滑な運転操作を支援するシステムとして、自車両に搭載された複数台の車載カメラによる自車両の周辺の撮影映像に基づいて、自車両の周辺を自車両の上方から見下ろしたような画像である車両周辺画像を生成し、生成された車両周辺画像を車内のディスプレイに表示する車両周辺監視装置が採用されるようになった。   In recent years, with the development of in-vehicle camera technology and image processing technology, as a system that supports safe and smooth driving operation of the host vehicle in parking lots, etc., photographing the surroundings of the host vehicle with a plurality of in-vehicle cameras installed in the host vehicle A vehicle periphery monitoring device is used that generates a vehicle periphery image that is an image as if the periphery of the host vehicle is viewed from above the host vehicle based on the video, and displays the generated vehicle periphery image on a display in the vehicle. It became so.

図14は、このような車両周辺監視装置によってディスプレイに表示される車両周辺画像1の一例として、駐車場において表示される車両周辺画像1を示したものである。   FIG. 14 shows a vehicle periphery image 1 displayed in a parking lot as an example of the vehicle periphery image 1 displayed on the display by such a vehicle periphery monitoring device.

図14に示すように、車両周辺画像1は、自車両を示す略矩形のイラスト画像2と、このイラスト画像2の四辺を囲む前方視点変換画像3、左側方視点変換画像5、右側方視点変換画像6および後方視点変換画像7とが繋ぎ合わされるようにして形成されている。   As shown in FIG. 14, the vehicle peripheral image 1 includes a substantially rectangular illustration image 2 indicating the host vehicle, a front viewpoint conversion image 3, a left side viewpoint conversion image 5, and a right side viewpoint conversion surrounding the four sides of the illustration image 2. The image 6 and the rear viewpoint conversion image 7 are formed so as to be connected.

ここで、前方視点変換画像3は、車載カメラとしての自車両の前部(例えば、エンブレム部)に取り付けられたフロントカメラの撮影映像に基づいて生成されるようになっており、この前方視点変換画像3によって、自車両の前方を自車両の上方から見下ろした状態として監視することが可能とされている。この前方視点変換画像3は、その前端辺が車両周辺画像1の前端辺の一部をなし、また、その後端辺が、イラスト画像2の前端辺に繋ぎ合わされており、全体的には、その前端辺が長尺な上底、その後端辺が短尺な下底とされた台形状を呈している。   Here, the front viewpoint conversion image 3 is generated on the basis of a photographed image of a front camera attached to the front part (for example, an emblem part) of the host vehicle as an in-vehicle camera. According to the image 3, it is possible to monitor the front of the host vehicle as viewed from above the host vehicle. The front viewpoint conversion image 3 has a front end part of the front end side of the vehicle peripheral image 1 and a rear end connected to the front end side of the illustration image 2. It has a trapezoidal shape with the front edge being a long upper base and the rear edge being a short bottom.

また、左側方視点変換画像5は、車載カメラとしての自車両の左側部(例えば、左ドアミラー部)に取り付けられた左サイドカメラの撮影映像に基づいて生成されるようになっており、この左側方視点変換画像5によって、自車両の左側方を自車両の上方から見下ろした状態として監視することが可能とされている。この左側方視点変換画像5は、その右端辺がイラスト画像2の左端辺に繋ぎ合わされているとともに、その右端辺の前端に連なる端辺に相当する第1の繋ぎ目8において、前方視点変換画像3の左端辺と繋ぎ合わされている。この第1の繋ぎ目8は、イラスト画像2における左前方の角部から左前方に向かって延びる直線形状を呈している。第1の繋ぎ目8の前端部は、車両周辺画像1の前端辺に至っている。   Further, the left-side viewpoint converted image 5 is generated based on a photographed image of the left side camera attached to the left side part (for example, the left door mirror part) of the host vehicle as the in-vehicle camera. It is possible to monitor the left side of the host vehicle as viewed from the upper side of the host vehicle by the viewpoint conversion image 5. This left-side viewpoint converted image 5 has its right edge connected to the left edge of the illustration image 2, and at the first joint 8 corresponding to the edge connected to the front edge of the right edge, the front viewpoint converted image. 3 is connected to the left end side. The first joint 8 has a linear shape extending from the left front corner in the illustration image 2 toward the left front. The front end portion of the first joint 8 reaches the front end side of the vehicle peripheral image 1.

さらに、右側方視点変換画像6は、車載カメラとしての自車両の右側部(例えば、右ドアミラー部)に取り付けられた右サイドカメラの撮影映像に基づいて生成されるようになっており、この右側方視点変換画像6によって、自車両の右側方を自車両の上方から見下ろした状態として監視することが可能とされている。この右側方視点変換画像6は、その左端辺がイラスト画像2の右端辺に繋ぎ合わされているとともに、その左端辺の前端に連なる端辺に相当する第2の繋ぎ目10において、前方視点変換画像3の右端辺と繋ぎ合わされている。この第2の繋ぎ目10は、イラスト画像2における右前方の角部から右前方に向かって延びる直線形状を呈している。第2の繋ぎ目10の前端部は、車両周辺画像1の前端辺に至っている。   Further, the right-side viewpoint converted image 6 is generated based on a photographed image of a right side camera attached to a right side portion (for example, a right door mirror portion) of the host vehicle as an in-vehicle camera. It is possible to monitor the right side of the host vehicle as viewed from the upper side of the host vehicle by the direction viewpoint conversion image 6. The right-side viewpoint converted image 6 has its left edge connected to the right edge of the illustration image 2 and a front viewpoint converted image at the second joint 10 corresponding to the edge connected to the front edge of the left edge. 3 is connected to the right edge of 3. The second joint 10 has a linear shape extending from the right front corner in the illustration image 2 toward the right front. The front end portion of the second joint 10 reaches the front end side of the vehicle peripheral image 1.

さらにまた、後方視点変換画像7は、車載カメラとしての自車両の後部(例えば、ナンバープレートの取付部)に取り付けられたバックカメラの撮影映像に基づいて生成されるようになっており、この後方視点変換画像7によって、自車両の後方を自車両の上方から見下ろした状態として監視することが可能とされている。この後方視点変換画像7は、その前端辺がイラスト画像2の後端辺に繋ぎ合わされているとともに、その前端辺の左端に連なる端辺に相当する第3の繋ぎ目11において、左側方視点変換画像5の後端辺と繋ぎ合わされている。この第3の繋ぎ目11は、イラスト画像2における左後方の角部から左後方に向かって延びる直線状を呈している。また、この第3の繋ぎ目11の後端部は、車両周辺画像1の左端辺に至っている。さらに、後方視点変換画像7は、その前端辺の右端に連なる端辺に相当する第4の繋ぎ目12において、右側方視点変換画像6の後端部と繋ぎ合わされている。この第4の繋ぎ目12は、イラスト画像2における右後方の角部から右後方に向かって延びる直線状を呈している。また、この第4の繋ぎ目12の後端部は、車両周辺画像1の右端辺に至っている。   Furthermore, the rear viewpoint conversion image 7 is generated based on a photographed image of the back camera attached to the rear part (for example, the attaching part of the license plate) of the host vehicle as the in-vehicle camera. The viewpoint conversion image 7 can monitor the rear of the host vehicle as viewed from above the host vehicle. This rear viewpoint converted image 7 has its front end connected to the rear end of the illustration image 2 and left side viewpoint conversion at the third joint 11 corresponding to the end connected to the left end of the front end. It is connected to the rear edge of the image 5. The third joint 11 has a linear shape extending from the left rear corner in the illustration image 2 toward the left rear. Further, the rear end portion of the third joint 11 reaches the left end side of the vehicle peripheral image 1. Further, the rear viewpoint converted image 7 is connected to the rear end portion of the right side viewpoint converted image 6 at a fourth joint 12 corresponding to an end side connected to the right end of the front end side. The fourth joint 12 has a linear shape extending from the right rear corner in the illustration image 2 toward the right rear. Further, the rear end portion of the fourth joint 12 reaches the right end side of the vehicle peripheral image 1.

このような車両周辺画像1を表示する車両周辺監視装置は、自車両の周囲360°の方向を監視可能とする観点から、車載カメラとして、魚眼レンズ等の広角レンズを備えた広角カメラを用いることが多かった。   Such a vehicle periphery monitoring device that displays the vehicle periphery image 1 uses a wide-angle camera having a wide-angle lens such as a fisheye lens as an in-vehicle camera from the viewpoint of being able to monitor a 360 ° direction around the host vehicle. There were many.

このような車載カメラを用いて車両周辺画像1を生成する場合には、図15に示すように、CCD等の車載カメラの撮像面14(図15においては、バックカメラの撮像面)に結像された撮影映像15のうち、車両周辺画像1の生成に使用される所定の使用映像領域16内の映像のみを切り出し、切り出された映像を、この車載カメラに対応する視点変換画像3,5,6,7へと視点変換するようになっていた。各車載カメラの撮影映像に基づいて生成された視点変換画像3,5,6,7は、生成と同時に互いに合成される(繋ぎ合わされる)ことによって車両周辺画像1を形成することになる。   When the vehicle periphery image 1 is generated using such an in-vehicle camera, as shown in FIG. 15, an image is formed on the imaging surface 14 of the in-vehicle camera such as a CCD (in FIG. 15, the imaging surface of the back camera). Of the captured video 15, only the video in a predetermined usage video area 16 used for generating the vehicle surrounding image 1 is cut out, and the cut-out video is converted into viewpoint-converted images 3, 5, 5 corresponding to the in-vehicle camera. The viewpoint was changed to 6,7. The viewpoint conversion images 3, 5, 6, and 7 generated based on the captured images of the respective in-vehicle cameras are combined (connected) at the same time as the generation to form the vehicle peripheral image 1.

ただし、使用映像領域16内の映像は、車載カメラのレンズの歪曲収差に起因して歪みを有したものになっているため、視点変換の際には、使用映像領域16内の映像に対する歪み補正処理を行うことによって歪みを解消させることが必要であった。   However, since the video in the use video area 16 has distortion due to the distortion of the lens of the in-vehicle camera, distortion correction for the video in the use video area 16 is performed at the time of viewpoint conversion. It was necessary to eliminate distortion by performing processing.

そして、この歪み補正処理には、歪み補正値として、車載カメラの内部パラメータが用いられていた。歪み補正処理を行うための内部パラメータとしては、例えば、図16に示すような画像主点(Cx,Cy)および歪み補正パラメータ(k,k,k,k,k)が用いられていた。 In this distortion correction processing, internal parameters of the in-vehicle camera are used as distortion correction values. As internal parameters for performing distortion correction processing, for example, image principal points (Cx, Cy) and distortion correction parameters (k 1 , k 2 , k 3 , k 4 , k 5 ) as shown in FIG. 16 are used. It was done.

ここで、図16は、三次元ワールド座標系と、二次元座標系とされた車載カメラの撮像面14(デジタル画像平面)の座標系(以下、画像座標系と称する)との関係を示している。図16に示すように、三次元ワールド座標系における原点と、画像座標系における原点とは、ともにZ軸上に位置されており、このZ軸は、車載カメラのレンズとしての魚眼レンズ18の光軸に一致している。   Here, FIG. 16 shows the relationship between the three-dimensional world coordinate system and the coordinate system (hereinafter referred to as the image coordinate system) of the imaging surface 14 (digital image plane) of the in-vehicle camera in the two-dimensional coordinate system. Yes. As shown in FIG. 16, the origin in the three-dimensional world coordinate system and the origin in the image coordinate system are both located on the Z-axis, and this Z-axis is the optical axis of the fish-eye lens 18 as a lens of the in-vehicle camera. It matches.

そして、三次元空間における点Pは、魚眼レンズ18を通して、撮像面14上に点pとして射影されることになる。   Then, the point P in the three-dimensional space is projected as a point p on the imaging surface 14 through the fisheye lens 18.

このとき、像高r(θ)は、内部パラメータ、点Pからの光のZ軸への入射角(画角)θ〔°〕、および、魚眼レンズ18の焦点距離〔mm〕を用いて次式のように表されることになる。   At this time, the image height r (θ) is expressed by the following equation using an internal parameter, an incident angle (angle of view) θ [°] of light from the point P to the Z axis, and a focal length [mm] of the fisheye lens 18. It will be expressed as

r(θ)=2ftan(θ/2)
=kθ+kθ+kθ+kθ+kθ
r (θ) = 2 ftan (θ / 2)
= K 1 θ + k 2 θ 3 + k 3 θ 5 + k 4 θ 7 + k 5 θ 9

車両周辺監視装置においては、このような内部パラメータが関与する像高特性によって撮影映像に所定の歪みが生じていることを把握した上で、内部パラメータを用いることにより、使用映像領域16内の映像の歪みが視点変換画像3,5,6,7(すなわち車両周辺画像1)の状態において解消されるように歪み補正処理を行うようになっていた。   In the vehicle periphery monitoring device, after grasping that a predetermined distortion has occurred in the photographed image due to the image height characteristic related to such an internal parameter, the image in the use video area 16 is obtained by using the internal parameter. The distortion correction processing is performed so that the distortion of the image is eliminated in the state of the viewpoint conversion images 3, 5, 6, and 7 (that is, the vehicle peripheral image 1).

さらに、車両周辺監視装置においては、このような歪み補正処理によって歪みが除去されているだけでなく、各視点変換画像3,5,6,7同士が連続的な画像として繋がり合っている車両周辺画像1を表示することが重要とされていた。   Furthermore, in the vehicle periphery monitoring device, not only the distortion is removed by such distortion correction processing, but also the vehicle periphery in which the viewpoint conversion images 3, 5, 6, and 7 are connected as continuous images. It was important to display image 1.

このため、車両周辺監視装置においては、使用映像領域16内の映像を視点変換画像3,5,6,7へと変換する際には、各車載カメラの外部パラメータを用いることによって、視点変換画像3,5,6,7同士が繋ぎ目8,10,11、12において適切に繋がるように視点変換を行うようになっていた。   For this reason, in the vehicle periphery monitoring device, when converting the video in the use video area 16 into the viewpoint conversion images 3, 5, 6, and 7, the viewpoint conversion image is obtained by using the external parameters of each in-vehicle camera. The viewpoint conversion is performed so that 3, 5, 6, and 7 are appropriately connected at joints 8, 10, 11, and 12.

ここで、外部パラメータは、自車両における車載カメラの取り付け位置および取り付け姿勢の情報であり、このような外部パラメータとしては、三次元ワールド座標系における車載カメラの位置のX座標、Y座標およびZ座標(tx、ty、tz)および三次元ワールド座標系における車載カメラの光軸の向きについてのX座標軸、Y座標軸およびZ座標軸の各座標軸回りの回転角(rx、ry、rz)が知られている。   Here, the external parameter is information on the mounting position and mounting posture of the in-vehicle camera in the host vehicle, and as such an external parameter, the X coordinate, the Y coordinate, and the Z coordinate of the position of the in-vehicle camera in the three-dimensional world coordinate system. (Tx, ty, tz) and rotation angles (rx, ry, rz) around the coordinate axes of the X coordinate axis, the Y coordinate axis, and the Z coordinate axis regarding the direction of the optical axis of the in-vehicle camera in the three-dimensional world coordinate system are known. .

特開2007−158695号公報JP 2007-158695 A 特開2004−200819号公報JP 2004-200819 A 特開2001−116515号公報JP 2001-116515 A

ところで、車載カメラは、必ずしも適切な取り付け位置および取り付け姿勢で自車両に取り付けられているとは限らず、位置ずれや回転等の何らかの取り付け誤差が生じることがあった。   By the way, the in-vehicle camera is not necessarily attached to the host vehicle at an appropriate attachment position and attachment posture, and some attachment errors such as displacement and rotation may occur.

そして、このような取り付け誤差が生じているにもかかわらず、視点変換の際に、外部パラメータとして設計値のみを用いる場合には、各視点変換画像3,5,6,7に傾き等のずれが生じ、各視点変換画像3,5,6,7同士が適切に繋がり合わない粗悪な車両周辺画像1が生成されることになってしまう。   When only design values are used as external parameters at the time of viewpoint conversion in spite of such attachment errors, the viewpoint conversion images 3, 5, 6 and 7 have a deviation such as an inclination. As a result, a poor vehicle peripheral image 1 in which the viewpoint conversion images 3, 5, 6, and 7 are not properly connected to each other is generated.

そこで、従来から、車両周辺監視装置においては、例えば、図17に示すようなターゲットボード20と称される規則的なパターン21が形成された計測用具を用いて外部パラメータを実測し、実測された外部パラメータを車両周辺画像1の生成(視点変換)に用いるようになっていた。   Therefore, conventionally, in the vehicle periphery monitoring device, for example, external parameters are measured by using a measuring tool in which a regular pattern 21 called a target board 20 as shown in FIG. External parameters are used for generation (viewpoint conversion) of the vehicle periphery image 1.

このようなターゲットボード20を用いて外部パラメータを実測するには、まず、図18に示すように、複数台の車載カメラが取り付けられた自車両23を平坦な作業面24上に位置させるとともに、ターゲットボード20を、作業面24上における各車載カメラの視野角の中心に該当する所定の位置に設置した上で、ターゲットボード20を車載カメラによって撮影する。   In order to actually measure external parameters using such a target board 20, first, as shown in FIG. 18, the host vehicle 23 to which a plurality of in-vehicle cameras are attached is positioned on a flat work surface 24, and The target board 20 is set at a predetermined position corresponding to the center of the viewing angle of each in-vehicle camera on the work surface 24, and then the target board 20 is photographed by the in-vehicle camera.

このターゲットボード20の撮影によって、図19に示すように、各車載カメラの使用映像領域16の中央には、ターゲットボード20の映像20’が結像されることになる。   By photographing the target board 20, as shown in FIG. 19, an image 20 'of the target board 20 is formed at the center of the used image area 16 of each in-vehicle camera.

そして、このターゲットボード20の映像20’上の各パターン21’の結像位置が、正規の結像位置(現在の外部パラメータが設計値通りであると仮定した場合におけるパターン21’の結像位置)からどれだけずれているかを検出する。   Then, the image formation position of each pattern 21 ′ on the image 20 ′ of the target board 20 is the normal image formation position (the image formation position of the pattern 21 ′ when the current external parameters are assumed to be as designed values. ) Is detected.

そして、この検出結果に基づいて、外部パラメータの設計値からの誤差量を算出し、算出された誤差量を設計値に加算することによって、現在の外部パラメータの実測値を得るようになっていた。   Based on the detection result, an error amount from the design value of the external parameter is calculated, and the calculated error amount is added to the design value to obtain the actual measurement value of the current external parameter. .

しかしながら、このようなターゲットボード20を用いた外部パラメータの実測においては、ターゲットボード20の映像20’上の各パターン21’が特に広画角の領域において大きく歪んでいるため、広範な使用映像領域16内の撮影映像に基づいて視点変換を行うような場合には、特に広画角の領域において微妙な実測誤差があることにより、視点変換画像3,5,6,7同士が適切に繋がり合わずにずれが生じてしまっていた。   However, in the actual measurement of the external parameters using such a target board 20, since each pattern 21 'on the video 20' of the target board 20 is greatly distorted particularly in a wide angle of view area, a wide use video area. When the viewpoint conversion is performed based on the captured image in the image 16, the viewpoint conversion images 3, 5, 6, and 7 are appropriately connected to each other due to a subtle measurement error particularly in a wide-angle region. There was a gap.

そこで、本発明は、このような問題点に鑑みなされたものであり、視点変換画像同士のずれが少ない視認性に優れた車両周辺画像を低コストで表示することができる車両周辺監視装置およびこれに適用されるカメラ取り付け位置・姿勢情報の設定修正方法を提供することを目的とするものである。   Therefore, the present invention has been made in view of such problems, and a vehicle periphery monitoring device capable of displaying a vehicle periphery image excellent in visibility with little deviation between viewpoint-converted images at low cost, and the same It is an object of the present invention to provide a setting correction method for camera mounting position / posture information applied to the camera.

前述した目的を達成するため、本発明に係る車両周辺監視装置は、自車両における所定の位置に取り付けられるようにして前記自車両に搭載された広角の視野を有する複数台の車載カメラによる前記自車両の周辺の撮影映像に基づいて、前記自車両の周辺を前記自車両の上方から見下ろしたような画像である車両周辺画像を生成して表示部に表示する車両周辺監視装置であって、車両周辺監視装置本体は、前記複数台の車載カメラのそれぞれの撮影映像から、前記車両周辺画像の生成に使用される各車載カメラごとの所定の使用映像領域内の映像をそれぞれ切り出す映像切り出し手段と、この映像切り出し手段によって切り出された各車載カメラごとの前記使用映像領域内の映像に対して、設定されている各車載カメラごとの所定の歪み補正値を用いた各車載カメラごとの歪み補正処理をそれぞれ行う歪み補正手段と、この歪み補正手段による前記歪み補正処理に用いられる各車載カメラごとの前記歪み補正値をそれぞれ設定する歪み補正値設定手段と、前記歪み補正手段による各車載カメラごとの前記歪み補正処理によってそれぞれ得られる映像を、設定されている各車載カメラの取り付け位置・姿勢情報を用いて当該映像が示す領域を前記車両の上方の所定の視点から見たような画像である視点変換画像へとそれぞれ視点変換することによって、各車載カメラごとの前記視点変換画像が互いに繋ぎ合わされた前記車両周辺画像を生成する視点変換手段と、この視点変換手段による前記視点変換に用いられる前記各車載カメラの取り付け位置・姿勢情報を設定する取り付け位置・姿勢情報設定手段と、この取り付け位置・姿勢情報設定手段による前記取り付け位置・姿勢情報の設定を修正可能とされた取り付け位置・姿勢情報設定修正手段とを備えており、前記取り付け位置・姿勢情報設定修正手段は、直線状に配列された複数の特徴点を抽出可能とされた既知の形状を有する第1の撮影対象物が、前記自車両の周辺における所定の位置に設置された作業環境の下で、前記第1の撮影対象物が映し込まれた各車載カメラの撮影映像に基づいて、前記第1の撮影対象物の画像がそれぞれ含まれた各車載カメラごとの前記視点変換画像が繋ぎ合わされた車両周辺画像が生成された後に、前記第1の撮影対象物の画像から前記特徴点を抽出する特徴点抽出手段と、この特徴点抽出手段の抽出結果に基づいて、任意の1個の視点変換画像についての他の視点変換画像との繋ぎ目部分における前記特徴点の配列状態と、前記繋ぎ目部分における前記第1の撮影対象物の正規の形状とを比較することによって、前記繋ぎ目部分における前記特徴点の位置の誤差を検出する誤差検出手段と、この誤差検出手段によって検出された前記誤差を解消することが可能な前記繋ぎ目部分に対応する第1の取り付け位置・姿勢情報の補正量を算出する第1の補正量算出手段と、前記視点変換画像における前記特徴点の正規の配列方向に間隔を設けるように形成された一対の前記繋ぎ目部分のそれぞれについての前記第1の補正量算出手段の算出結果を用いた線形的な補間によって、当該視点変換画像における前記一対の前記繋ぎ目部分に挟まれた前記繋ぎ目部分以外の領域における前記特徴点の位置の誤差を解消することが可能な当該繋ぎ目部分以外の領域に対応する第2の取り付け位置・姿勢情報の補正量を算出する第2の補正量算出手段と、前記第1の取り付け位置・姿勢情報の補正量に基づいて、前記取り付け位置・姿勢情報設定手段によって現在設定されている前記取り付け位置・姿勢情報における前記繋ぎ目部分に対応する情報を補正する第1の補正手段と、前記第2の取り付け位置・姿勢情報の補正量に基づいて、前記取り付け位置・姿勢情報設定手段によって現在設定されている前記取り付け位置・姿勢情報における前記繋ぎ目部分以外の領域に対応する情報を補正する第2の補正手段とを備えた点にある。   In order to achieve the above-described object, a vehicle periphery monitoring device according to the present invention is provided by a plurality of in-vehicle cameras having a wide-angle field of view mounted on the host vehicle so as to be attached to a predetermined position in the host vehicle. A vehicle periphery monitoring device that generates a vehicle periphery image that is an image obtained by looking down the periphery of the host vehicle from above the host vehicle based on a video image of the periphery of the vehicle, and displays the vehicle periphery image on a display unit. The peripheral monitoring device main body is a video cutout unit that cuts out a video in a predetermined use video area for each vehicle-mounted camera used for generating the vehicle peripheral image from each captured video of the plurality of vehicle-mounted cameras, Predetermined distortion correction for each in-vehicle camera that has been set with respect to the video in the use video area for each in-vehicle camera cut out by this video cutout means Distortion correction means for performing distortion correction processing for each vehicle-mounted camera using the camera, and distortion correction value setting means for setting the distortion correction value for each vehicle-mounted camera used for the distortion correction processing by the distortion correction device, respectively. The area indicated by the image using the distortion correction processing for each in-vehicle camera by the distortion correction means is set to a predetermined area above the vehicle using the set mounting position / posture information of each in-vehicle camera. Viewpoint conversion means for generating the vehicle peripheral image in which the viewpoint conversion images of the respective in-vehicle cameras are connected to each other by performing viewpoint conversion into viewpoint conversion images that are images viewed from the viewpoint of Mounting position for setting the mounting position / posture information of each on-vehicle camera used for the viewpoint conversion by the converting means And a mounting position / posture information setting correction unit capable of correcting the setting of the mounting position / posture information by the mounting position / posture information setting unit. The correcting means is provided under a work environment in which a first object to be photographed having a known shape from which a plurality of feature points arranged in a straight line can be extracted is installed at a predetermined position around the vehicle. Then, based on the captured video of each in-vehicle camera on which the first imaging object is reflected, the viewpoint-converted images for each in-vehicle camera each including the image of the first imaging object are joined together. A feature point extracting means for extracting the feature point from the image of the first object to be photographed after the vehicle periphery image is generated, and any one viewpoint based on the extraction result of the feature point extracting means Strange By comparing the arrangement state of the feature points in the joint portion with another viewpoint conversion image of the replacement image and the regular shape of the first object to be photographed in the joint portion, the joint portion An error detection means for detecting an error in the position of the feature point in the first correction of the first attachment position / posture information corresponding to the joint portion capable of eliminating the error detected by the error detection means A first correction amount calculating means for calculating an amount; and the first correction for each of the pair of joint portions formed so as to provide an interval in a normal arrangement direction of the feature points in the viewpoint conversion image. The feature in the region other than the joint portion sandwiched between the pair of joint portions in the viewpoint conversion image by linear interpolation using the calculation result of the amount calculation means. A second correction amount calculating means for calculating a correction amount of second attachment position / posture information corresponding to a region other than the joint portion capable of eliminating the point position error; and the first attachment. First correction means for correcting information corresponding to the joint portion in the attachment position / posture information currently set by the attachment position / posture information setting means based on a correction amount of position / posture information; Based on the correction amount of the second attachment position / posture information, information corresponding to an area other than the joint portion in the attachment position / posture information currently set by the attachment position / posture information setting unit is corrected. And a second correction means.

そして、このような構成によれば、 取り付け位置・姿勢情報設定修正手段により、車載カメラの取り付け位置情報および取り付け姿勢情報(以下、取り付け位置・姿勢情報と称する)の設定の修正を、第1の撮影対象物の画像が含まれた歪み補正処理後の車両周辺画像に基づいて行うことができ、この際に、繋ぎ目部分については、第1の撮影対象物の画像における特徴点の位置の誤差を検出し、検出された誤差を解消する補正によって適切な取り付け位置・姿勢情報を実測する一方で、視点変換画像における繋ぎ目部分以外の領域については、線形的な補間による補正で済ませることができるので、視点変換画像同士のずれが少ない視認性に優れた車両周辺画像を低コストで表示することができる。   According to such a configuration, the mounting position / posture information setting correcting means corrects the setting of the mounting position information and mounting posture information (hereinafter referred to as mounting position / posture information) of the in-vehicle camera. This can be performed based on the vehicle peripheral image after the distortion correction processing including the image of the shooting target object. At this time, the error of the position of the feature point in the image of the first shooting target is obtained for the joint portion. While measuring the appropriate attachment position / orientation information by correcting the detected error, the area other than the joint part in the viewpoint conversion image can be corrected by linear interpolation. Therefore, it is possible to display a vehicle periphery image with excellent visibility with little shift between viewpoint conversion images at a low cost.

また、前記第1の撮影対象物は、前記自車両が載置されている平坦な作業面上における前記自車両の周辺に、そのパターン面が前記作業面に平行になるように設置された格子パターンとされ、前記特徴点は、前記格子パターンにおける格子点とされていることが好ましい。   Further, the first object to be photographed is a grid installed around the flat work surface on which the own vehicle is placed so that a pattern surface thereof is parallel to the work surface. Preferably, the feature points are lattice points in the lattice pattern.

そして、このような構成によれば、第1の撮影対象物として簡易な格子パターンを用いることによって、視点変換画像上において特徴点(格子点)を簡便かつ確実に検出することができるので、コストをさらに削減することができる。   According to such a configuration, by using a simple grid pattern as the first object to be photographed, feature points (grid points) can be easily and reliably detected on the viewpoint conversion image. Can be further reduced.

さらに、前記取り付け位置・姿勢情報設定手段によって現在設定されている前記取り付け位置・姿勢情報は、取り付け位置・姿勢情報の設計値とされていてもよい。   Further, the attachment position / posture information currently set by the attachment position / posture information setting means may be a design value of the attachment position / posture information.

そして、このような構成によれば、実際の車載カメラの取り付け位置および取り付け姿勢からの誤差が生じていない取り付け位置・姿勢情報の設計値については、引き続き視点変換に活用することができるので、コストをさらに削減することができる。   According to such a configuration, the design value of the mounting position / posture information that does not cause an error from the actual mounting position and mounting position of the in-vehicle camera can be continuously used for viewpoint conversion. Can be further reduced.

さらにまた、前記取り付け位置・姿勢情報は、前記車載カメラの外部パラメータとされていることが好ましい。   Furthermore, it is preferable that the attachment position / posture information is an external parameter of the in-vehicle camera.

そして、このような構成によれば、車載カメラの外部パラメータを用いることによって、視点変換をさらに適切に行うことができる。   And according to such a structure, viewpoint conversion can be performed more appropriately by using the external parameter of a vehicle-mounted camera.

また、前記歪み補正値設定手段による前記歪み補正値の設定を修正可能とされた歪み補正値設定修正手段を備え、前記歪み補正値設定修正手段は、既知の形状を有する第2の撮影対象物が前記自車両の周辺に設置された作業環境の下で、前記車載カメラの撮影映像から、前記第2の撮影対象物が映し込まれた前記使用映像領域内の映像が切り出された後に、前記歪み補正手段を制御することにより、前記歪み補正手段に、歪み補正値の設定修正作業用の歪み補正処理として、前記歪み補正値設定手段によって現在設定されている第1の歪み補正値を用いた当該使用映像領域内の映像に対する歪み補正処理を行わせる歪み補正制御手段と、前記設定修正作業用の歪み補正処理によって得られる映像上、または、この映像に対する前記視点変換手段による前記視点変換によって得られた画像上における前記第2の撮影対象物の形状と、前記第2の撮影対象物の正規の形状とを比較することによって、前記設定修正作業用の歪み補正処理によって得られる映像、または、この映像に対する前記視点変換によって得られた画像から、当該歪み補正処理が正確に行われずに歪みが残存している当該映像内または当該画像内の領域である歪み領域を、この歪み領域における歪みの残存量とともに検出する歪み領域検出手段と、この歪み領域検出手段によって検出された前記歪み領域における前記歪みを補正することが可能な追加補正量を、前記歪みの残存量に基づいて求めた上で、求められた前記追加補正量を前記第1の歪み補正値に加算することによって、第2の歪み補正値を算出する歪み補正値算出手段と、前記歪み補正値設定手段を制御することにより、前記歪み補正値設定手段に、前記歪み補正値算出手段によって算出された前記第2の歪み補正値を、前記使用映像領域のうちの前記歪み領域に対応する特定の映像領域内の映像に対する前記歪み補正処理に用いられる前記歪み補正値として新たに設定させるとともに、前記使用映像領域のうちの前記特定の映像領域以外の映像領域については、前記第1の歪み補正値を引き続き前記歪み補正処理に用いられる前記歪み補正値として設定させ続ける設定制御手段とを備えていることによって、前記特定の映像領域に対応した前記歪み補正値の設定のみを修正するように形成され、前記取り付け位置・姿勢情報設定修正手段は、前記歪み補正値設定修正手段による前記歪み補正値の設定修正作業後における前記歪み補正処理を経て生成された車両周辺画像に基づいて、取り付け位置・姿勢情報の設定を修正するように形成されていることが好ましい。   In addition, the image processing apparatus includes distortion correction value setting correction means that can correct the setting of the distortion correction value by the distortion correction value setting means, and the distortion correction value setting correction means includes a second imaging object having a known shape. In the work environment installed around the host vehicle, after the video in the use video area in which the second object to be photographed is cut out from the video captured by the in-vehicle camera, By controlling the distortion correction means, the first distortion correction value that is currently set by the distortion correction value setting means is used as the distortion correction process for setting and correcting the distortion correction value. Distortion correction control means for performing distortion correction processing on the video in the use video area, and on the video obtained by the distortion correction processing for the setting correction work or the viewpoint conversion method for this video By comparing the shape of the second object to be photographed on the image obtained by the viewpoint conversion with the normal shape of the second object to be photographed, by the distortion correction process for the setting correction work From the obtained video or the image obtained by the viewpoint conversion for this video, a distortion region that is a region in the video or the image in which distortion remains without the distortion correction processing being accurately performed, The strain area detecting means for detecting together with the remaining strain amount in the strain area, and an additional correction amount capable of correcting the distortion in the strain area detected by the strain area detecting means as the remaining strain amount. And calculating the second distortion correction value by adding the calculated additional correction amount to the first distortion correction value. By controlling the value calculation means and the distortion correction value setting means, the second distortion correction value calculated by the distortion correction value calculation means is transmitted to the distortion correction value setting means in the use video area. And a new correction value used as the distortion correction value used in the distortion correction processing for a video in a specific video area corresponding to the distortion area, and a video area other than the specific video area in the used video area Comprises a setting control means for continuing to set the first distortion correction value as the distortion correction value used in the distortion correction processing, so that the distortion correction value corresponding to the specific video region is set. The mounting position / posture information setting correction unit is configured to correct only the setting, and the distortion correction value setting correction unit adjusts the distortion correction value by the distortion correction value setting correction unit. It is preferable that the setting of the attachment position / posture information is corrected based on the vehicle peripheral image generated through the distortion correction processing after the setting correction work.

そして、このような構成によれば、現在設定されている歪み補正値に誤差が生じている場合においても、歪み補正値設定修正手段によって歪み補正値の設定を低コストに修正した上で、取り付け位置・姿勢情報設定修正手段により、歪み補正値の設定修正作業後における歪み補正処理を経て得られた車両周辺画像に基づいて、車載カメラの取り付け位置・姿勢情報の設定の修正をさらに適切に行うことができる。   According to such a configuration, even when an error has occurred in the currently set distortion correction value, the distortion correction value setting correction unit corrects the distortion correction value setting at a low cost and is attached. The position / posture information setting correction means further appropriately corrects the setting of the mounting position / posture information of the in-vehicle camera based on the vehicle peripheral image obtained through the distortion correction processing after the setting correction work of the distortion correction value. be able to.

さらに、前記第2の撮影対象物は、前記第1の撮影対象物とされていることが好ましい。   Furthermore, it is preferable that the second imaging object is the first imaging object.

そして、このような構成によれば、車載カメラの取り付け位置・姿勢情報の設定の修正と、歪み補正値の設定の修正とを、同一の撮影対象物を用いて行うことができるので、コストをさらに削減することができる。   And according to such a structure, since the correction of the setting of the mounting position / posture information of the in-vehicle camera and the correction of the setting of the distortion correction value can be performed using the same photographing object, the cost can be reduced. Further reduction can be achieved.

さらにまた、前記第1の歪み補正値は、歪み補正値の設計値とされていることが好ましい。   Furthermore, it is preferable that the first distortion correction value is a design value of the distortion correction value.

そして、このような構成によれば、歪み補正値の設計値を有効に活用することができ、コストをさらに削減することができる。   According to such a configuration, the design value of the distortion correction value can be used effectively, and the cost can be further reduced.

また、前記歪み補正値は、前記車載カメラの内部パラメータとされていることが好ましい。   The distortion correction value is preferably an internal parameter of the in-vehicle camera.

そして、このような構成によれば、歪み補正値として車載カメラの内部パラメータを用いることにより、適切な歪み補正処理を行うことができる。   And according to such a structure, an appropriate distortion correction process can be performed by using the internal parameter of a vehicle-mounted camera as a distortion correction value.

本発明に係るカメラ取り付け位置・姿勢情報の設定修正方法は、自車両における所定の位置に取り付けられた広角の視野を有する複数台の車載カメラによる前記自車両の周辺の撮影映像のそれぞれから、各車載カメラごとの所定の使用映像領域内の映像をそれぞれ切り出し、切り出された各車載カメラごとの前記使用映像領域内の映像に対して、設定されている各車載カメラごとの所定の歪み補正値を用いた各車載カメラごとの歪み補正処理をそれぞれ行い、各車載カメラごとの前記歪み補正処理によってそれぞれ得られる映像を、設定されている各車載カメラの取り付け位置・姿勢情報を用いて当該映像が示す領域を前記車両の上方の所定の視点から見たような画像である視点変換画像へとそれぞれ視点変換することによって、各車載カメラごとの前記視点変換画像が互いに繋ぎ合わされた前記自車両の周辺を前記自車両の上方から見下ろしたような画像である車両周辺画像を生成し、生成された前記車両周辺画像を表示部に表示する車両周辺監視装置において、前記視点変換に用いられる前記取り付け位置・姿勢情報の設定を修正するカメラ取り付け位置・姿勢情報の設定修正方法であって、直線状に配列された複数の特徴点を抽出可能とされた既知の形状を有する第1の撮影対象物が、前記自車両の周辺における所定の位置に設置された作業環境を設定し、この設定された作業環境の下で、前記第1の撮影対象物が映し込まれた各車載カメラの撮影映像に基づいて、前記第1の撮影対象物の画像がそれぞれ含まれた各車載カメラごとの前記視点変換画像が繋ぎ合わされた車両周辺画像を生成した後に、前記第1の撮影対象物の画像から前記特徴点を抽出し、この特徴点の抽出結果に基づいて、任意の1個の視点変換画像についての他の視点変換画像との繋ぎ目部分における前記特徴点の配列状態と、前記繋ぎ目部分における前記第1の撮影対象物の正規の形状とを比較することによって、前記繋ぎ目部分における前記特徴点の位置の誤差を検出し、この検出された前記誤差を解消することが可能な前記繋ぎ目部分に対応する第1の取り付け位置・姿勢情報の補正量を算出し、前記視点変換画像における前記特徴点の正規の配列方向に間隔を設けるように形成された一対の前記繋ぎ目部分のそれぞれについての第1の取り付け位置・姿勢情報の算出結果を用いた線形的な補間によって、当該視点変換画像における前記一対の前記繋ぎ目部分に挟まれた前記繋ぎ目部分以外の領域における前記特徴点の位置の誤差を解消することが可能な当該繋ぎ目部分以外の領域に対応する第2の取り付け位置・姿勢情報の補正量を算出し、前記第1の取り付け位置・姿勢情報の補正量に基づいて、現在設定されている前記取り付け位置・姿勢情報における前記繋ぎ目部分に対応する情報を補正し、前記第2の取り付け位置・姿勢情報の補正量に基づいて、現在設定されている前記取り付け位置・姿勢情報における前記繋ぎ目部分以外の領域に対応する情報を補正することを特徴としている。   The camera attachment position / posture information setting correction method according to the present invention includes a plurality of in-vehicle cameras having a wide-angle field of view attached to a predetermined position in the own vehicle, Each of the images in the predetermined use video area for each in-vehicle camera is cut out, and the predetermined distortion correction value for each set in-vehicle camera is set for the cut out video in the use video area for each in-vehicle camera. Each of the in-vehicle cameras used is subjected to distortion correction processing, and the images obtained by the distortion correction processing for each of the in-vehicle cameras are shown by using the set attachment position / posture information of each in-vehicle camera. Each in-vehicle camera is converted into a viewpoint conversion image that is an image as seen from a predetermined viewpoint above the vehicle. Generating a vehicle peripheral image that is an image as if the surroundings of the own vehicle in which the respective viewpoint conversion images are connected to each other are looked down from above the own vehicle, and displaying the generated vehicle peripheral image on the display unit In the vehicle periphery monitoring apparatus, a camera mounting position / posture information setting correction method for correcting the setting of the mounting position / posture information used for the viewpoint conversion, and a plurality of feature points arranged in a straight line can be extracted. A first shooting object having a known shape is set as a work environment installed at a predetermined position around the host vehicle, and the first shooting is performed under the set work environment. A vehicle in which the viewpoint-converted images for the respective in-vehicle cameras each including the image of the first object to be photographed are connected based on the captured images of the in-vehicle cameras on which the object is reflected After generating the side image, the feature point is extracted from the image of the first object to be photographed, and based on the extraction result of the feature point, another viewpoint converted image for any one viewpoint converted image and An error in the position of the feature point in the joint portion is detected by comparing the arrangement state of the feature points in the joint portion with the regular shape of the first object to be photographed in the joint portion. Then, a correction amount of the first attachment position / posture information corresponding to the joint portion capable of eliminating the detected error is calculated, and a normal arrangement direction of the feature points in the viewpoint conversion image In the viewpoint conversion image, linear interpolation using a calculation result of the first attachment position / posture information for each of the pair of joint portions formed so as to be spaced apart from each other is used. Second attachment position / posture information corresponding to a region other than the joint portion that can eliminate an error in the position of the feature point in a region other than the joint portion sandwiched between the pair of joint portions. And correcting the information corresponding to the joint portion in the currently set attachment position / posture information based on the correction amount of the first attachment position / posture information, On the basis of the correction amount of the attachment position / posture information, the information corresponding to the region other than the joint portion in the currently set attachment position / posture information is corrected.

そして、このような方法によれば、 車載カメラの取り付け位置・姿勢情報の設定の修正を、第1の撮影対象物の画像が含まれた歪み補正処理後の車両周辺画像に基づいて行うことができ、この際に、第1の撮影対象物の画像における特徴点の位置の誤差を検出し、検出された誤差を解消する補正によって適切な取り付け位置・姿勢情報を実測する視点変換画像内の領域を、繋ぎ目部分に限定することができ、視点変換画像における繋ぎ目部分によって挟まれた繋ぎ目部分以外の領域については、線形的な補間による補正で済ませることができるので、視点変換画像同士のずれが少ない視認性に優れた車両周辺画像を低コストで表示することができる。   And according to such a method, the setting of the mounting position / posture information of the in-vehicle camera can be corrected based on the vehicle peripheral image after the distortion correction processing including the image of the first photographing object. In this case, an area in the viewpoint conversion image in which the error of the position of the feature point in the image of the first object to be photographed is detected, and the appropriate attachment position / orientation information is actually measured by the correction for eliminating the detected error. Can be limited to the joint portion, and the region other than the joint portion sandwiched by the joint portion in the viewpoint conversion image can be corrected by linear interpolation. It is possible to display a vehicle peripheral image with little deviation and excellent visibility at a low cost.

また、前記第1の撮影対象物として、前記車両が載置されている平坦な作業面上における前記車両の周辺に、そのパターン面が前記作業面に平行になるように設置された格子パターンを用いるとともに、前記特徴点として、前記格子パターンにおける格子点を用いることが好ましい。   Further, as the first object to be photographed, a lattice pattern is provided around the vehicle on a flat work surface on which the vehicle is placed so that a pattern surface thereof is parallel to the work surface. In addition, it is preferable to use lattice points in the lattice pattern as the feature points.

そして、このような方法によれば、第1の撮影対象物として簡易な格子パターンを用いることによって、視点変換画像上において特徴点を簡便かつ確実に検出することができるので、コストをさらに削減することができる。   And according to such a method, since a feature point can be easily and reliably detected on a viewpoint conversion image by using a simple lattice pattern as the first object to be photographed, the cost can be further reduced. be able to.

さらに、前記現在設定されている前記取り付け位置・姿勢情報として、取り付け位置・姿勢情報の設計値を用いてもよい。   Furthermore, a design value of attachment position / posture information may be used as the currently set attachment position / posture information.

そして、このような方法によれば、実際の車載カメラの取り付け位置および取り付け姿勢からの誤差が生じていない取り付け位置・姿勢情報の設計値については、引き続き視点変換に活用することができるので、コストをさらに削減することができる。   According to such a method, the design value of the mounting position / posture information that does not cause an error from the actual mounting position and mounting posture of the in-vehicle camera can be continuously used for viewpoint conversion. Can be further reduced.

さらにまた、前記取り付け位置・姿勢情報として、前記車載カメラの外部パラメータを用いることが好ましい。   Furthermore, it is preferable to use external parameters of the in-vehicle camera as the attachment position / posture information.

そして、このような方法によれば、車載カメラの外部パラメータを用いることによって、視点変換をさらに適切に行うことができる。   And according to such a method, viewpoint conversion can be performed more appropriately by using the external parameter of the vehicle-mounted camera.

また、既知の形状を有する第2の撮影対象物が前記自車両の周辺に設置された作業環境の下で、前記車載カメラの撮影映像から、前記第2の撮影対象物が映し込まれた前記使用映像領域内の映像が切り出された後に、歪み補正値の設定修正作業用の歪み補正処理として、現在設定されている第1の歪み補正値を用いた当該使用映像領域内の映像に対する歪み補正処理を行い、前記設定修正作業用の歪み補正処理によって得られる映像上、または、この映像に対する前記視点変換によって得られた画像上における前記第2の撮影対象物の形状と、前記第2の撮影対象物の正規の形状とを比較することによって、前記設定修正作業用の歪み補正処理によって得られる映像、または、この映像に対する前記視点変換によって得られた画像から、当該歪み補正処理が正確に行われずに歪みが残存している当該映像内または当該画像内の領域である歪み領域を、この歪み領域における歪みの残存量とともに検出し、検出された前記歪み領域における前記歪みを補正することが可能な追加補正量を、前記歪みの残存量に基づいて求めた上で、求められた前記追加補正量を前記第1の歪み補正値に加算することによって、第2の歪み補正値を算出し、算出された前記第2の歪み補正値を、前記使用映像領域のうちの前記歪み領域に対応する特定の映像領域内の映像に対する前記歪み補正処理に用いられる前記歪み補正値として新たに設定するとともに、前記使用映像領域のうちの前記特定の映像領域以外の映像領域については、前記第1の歪み補正値を引き続き前記歪み補正処理に用いられる前記歪み補正値として設定し続けることによって、前記特定の映像領域に対応した前記歪み補正値の設定のみを修正し、この修正が行われた後における前記歪み補正処理を経て生成された車両周辺画像に基づいて、取り付け位置・姿勢情報の設定を修正することが好ましい。   In addition, the second object to be photographed is reflected from a photographed image of the in-vehicle camera under a work environment in which a second object to be photographed having a known shape is installed around the host vehicle. After the video in the used video area is cut out, distortion correction for the video in the used video area using the currently set first distortion correction value is performed as distortion correction processing for setting and correcting the distortion correction value. And the shape of the second object to be photographed on the image obtained by the distortion correction processing for the setting correction work or on the image obtained by the viewpoint conversion for the image, and the second photographing By comparing with the normal shape of the object, the image obtained by the distortion correction processing for the setting correction work, or the image obtained by the viewpoint conversion for this image, A distortion region that is an area in the video or the image in which distortion remains without being accurately corrected only with the remaining amount of distortion in the distortion area, and the detected distortion area An additional correction amount capable of correcting the distortion is obtained based on the residual amount of distortion, and the obtained additional correction amount is added to the first distortion correction value to obtain a second correction amount. A distortion correction value is calculated, and the calculated second distortion correction value is used in the distortion correction processing for the image in a specific video area corresponding to the distortion area of the used video area. As a new value, the first distortion correction value is continuously used for the distortion correction processing for the video area other than the specific video area in the use video area. Only the distortion correction value setting corresponding to the specific video area is corrected, and the vehicle peripheral image generated through the distortion correction processing after the correction is performed is continued. Based on this, it is preferable to correct the setting of the attachment position / posture information.

そして、このような方法によれば、現在設定されている歪み補正値に誤差が生じている場合においても、歪み補正値の設定を低コストに修正した上で、歪み補正値の設定修正作業後における歪み補正処理を経て得られた車両周辺画像に基づいて、車載カメラの取り付け位置・姿勢情報の設定の修正をさらに適切に行うことができる。   According to such a method, even when an error has occurred in the currently set distortion correction value, the distortion correction value setting is corrected at low cost, and the distortion correction value setting is corrected. Based on the vehicle periphery image obtained through the distortion correction processing in, the setting of the mounting position / posture information of the in-vehicle camera can be corrected more appropriately.

さらに、前記第2の撮影対象物として、前記第1の撮影対象物を用いることが好ましい。   Furthermore, it is preferable to use the first imaging object as the second imaging object.

そして、このような方法によれば、車載カメラの取り付け位置・姿勢情報の設定の修正と、歪み補正値の設定の修正とを、同一の撮影対象物を用いて行うことができるので、コストをさらに削減することができる。   And according to such a method, since the correction of the setting of the mounting position / posture information of the in-vehicle camera and the correction of the setting of the distortion correction value can be performed using the same photographing object, the cost can be reduced. Further reduction can be achieved.

さらにまた、前記第1の歪み補正値として、歪み補正値の設計値を用いることが好ましい。   Furthermore, it is preferable to use a design value of the distortion correction value as the first distortion correction value.

そして、このような方法によれば、歪み補正値の設計値を有効に活用することができ、コストをさらに削減することができる。   According to such a method, the design value of the distortion correction value can be used effectively, and the cost can be further reduced.

また、前記歪み補正値として、前記車載カメラの内部パラメータを用いることが好ましい。   Moreover, it is preferable to use an internal parameter of the in-vehicle camera as the distortion correction value.

そして、このような方法によれば、歪み補正値として車載カメラの内部パラメータを用いることにより、適切な歪み補正処理を行うことができる。   And according to such a method, an appropriate distortion correction process can be performed by using the internal parameter of a vehicle-mounted camera as a distortion correction value.

本発明によれば、視点変換画像同士のずれが少ない視認性に優れた車両周辺画像を低コストで表示することができる。   ADVANTAGE OF THE INVENTION According to this invention, the vehicle periphery image excellent in the visibility with few shift | offset | differences of viewpoint conversion images can be displayed at low cost.

以下、本発明に係る車両周辺監視装置の実施形態について、図1乃至図11を参照して説明する。   Hereinafter, an embodiment of a vehicle periphery monitoring device according to the present invention will be described with reference to FIGS. 1 to 11.

なお、従来と基本的構成が同一もしくはこれに類する箇所については、同一の符号を用いて説明する。   Note that portions having the same or similar basic configuration as those in the related art will be described using the same reference numerals.

図1に示すように、本実施形態における車両周辺監視装置(車両周辺監視装置本体)32は、自車両に搭載された4台の車載カメラ34,35,36,37を有しており、これらの車載カメラ34,35,36,37は、いずれも、魚眼レンズ等の広角レンズを備えた広角の視野を有するカメラとされているとともに、CCDやCMOS等の固体撮像素子(撮像面14)を備えたデジタルカメラとされている。   As shown in FIG. 1, the vehicle periphery monitoring apparatus (vehicle periphery monitoring apparatus main body) 32 in this embodiment has four vehicle-mounted cameras 34, 35, 36, and 37 mounted on the host vehicle. Each of the in-vehicle cameras 34, 35, 36, and 37 is a camera having a wide-angle field of view with a wide-angle lens such as a fisheye lens, and a solid-state image sensor (imaging surface 14) such as a CCD or CMOS. It is said to be a digital camera.

これらの車載カメラ34,35,36,37のうちの1台は、自車両の前部に取付けられたフロントカメラ34とされており、このフロントカメラ34は、自車両の周辺における自車両の前方を中心とした所定の撮影領域を撮影するようになっている。他の3台の車載カメラ35,36,37のうちの1台は、自車両の左側部に取り付けられた左サイドカメラ35とされており、この左サイドカメラ35は、自車両の周辺における自車両の左側方を中心とした所定の撮影領域を撮影するようになっている。他の2台の車載カメラ36,37のうちの1台は、自車両の右側部に取り付けられた右サイドカメラ36とされており、この右サイドカメラ36は、自車両の周辺における自車両の右側方を中心とした所定の撮影領域を撮影するようになっている。残りの1台の車載カメラ37は、自車両の後部に取り付けられたバックカメラ37とされており、このバックカメラ37は、自車両の周辺における自車両の後方を中心とした所定の撮影領域を撮影するようになっている。   One of these in-vehicle cameras 34, 35, 36, and 37 is a front camera 34 attached to the front portion of the host vehicle. The front camera 34 is located in front of the host vehicle around the host vehicle. A predetermined image area centered on the camera is imaged. One of the other three in-vehicle cameras 35, 36, and 37 is a left side camera 35 attached to the left side of the own vehicle. The left side camera 35 is a self-portrait around the own vehicle. A predetermined shooting area centered on the left side of the vehicle is shot. One of the other two in-vehicle cameras 36 and 37 is a right side camera 36 attached to the right side of the own vehicle, and this right side camera 36 is a vehicle in the vicinity of the own vehicle. A predetermined image area centered on the right side is imaged. The remaining one in-vehicle camera 37 is a back camera 37 attached to the rear part of the own vehicle, and this back camera 37 has a predetermined shooting area around the back of the own vehicle around the own vehicle. It is supposed to shoot.

各車載カメラ34,35,36,37には、カメラ映像取得部38が接続されており、このカメラ映像取得部38は、各車載カメラ34,35,36,37から撮影映像を取得可能とされている。   A camera video acquisition unit 38 is connected to each of the in-vehicle cameras 34, 35, 36, 37, and the camera video acquisition unit 38 can acquire a captured video from each of the in-vehicle cameras 34, 35, 36, 37. ing.

カメラ映像取得部38には、映像切り出し手段としての映像切り出し部40が接続されており、この映像切り出し部40には、カメラ映像取得部38から、各車載カメラ34,35,36,37の撮影映像が入力されるようになっている。そして、映像切り出し部40は、入力された各車載カメラ34,35,36,37の撮影映像のそれぞれから、車両周辺画像1(図14参照)の生成に使用される車載カメラ34,35,36,37ごとの所定の使用映像領域16内の映像を切り出すようになっている。なお、フロントカメラ34の撮影映像における使用映像領域16内の映像は、車両周辺画像1における前方視点変換画像3の生成に使用されることになる。また、左サイドカメラ35の撮影映像における使用映像領域16内の映像は、車両周辺画像1における左側方視点変換画像5の生成に使用されることになる。さらに、右サイドカメラ36の撮影映像における使用映像領域16内の映像は、車両周辺画像1における右側方視点変換画像6の生成に使用されることになる。さらにまた、バックカメラ37の撮影映像における使用映像領域16内の映像は、車両周辺画像1における後方視点変換画像7の生成に使用されることになる。   The camera video acquisition unit 38 is connected with a video cutout unit 40 as a video cutout unit, and the video cutout unit 40 captures images of the in-vehicle cameras 34, 35, 36, and 37 from the camera video acquisition unit 38. Video is input. The video cutout unit 40 then uses the in-vehicle cameras 34, 35, and 36 used to generate the vehicle peripheral image 1 (see FIG. 14) from each of the input video images of the in-vehicle cameras 34, 35, 36, and 37. , 37, the video in the predetermined use video area 16 is cut out. Note that the video in the usage video area 16 in the video captured by the front camera 34 is used to generate the front viewpoint converted image 3 in the vehicle peripheral image 1. In addition, the video in the use video area 16 in the video shot by the left side camera 35 is used to generate the left-side viewpoint conversion image 5 in the vehicle peripheral image 1. Further, the video in the usage video area 16 in the video shot by the right side camera 36 is used to generate the right-side viewpoint converted image 6 in the vehicle peripheral image 1. Furthermore, the video in the usage video area 16 in the video captured by the back camera 37 is used to generate the rear viewpoint converted image 7 in the vehicle peripheral image 1.

映像切り出し部40には、歪み補正手段としての歪み補正部42が接続されており、この歪み補正部42には、映像切り出し部40によって切り出された各車載カメラ34,35,36,37にそれぞれ対応する使用映像領域16内の映像が入力されるようになっている。そして、歪み補正部42は、映像切り出し部40から入力された各車載カメラ34,35,36,37ごとの使用映像領域16内の映像に対して、この歪み補正部42に設定されている歪み補正値としての各車載カメラ34,35,36,37ごとの内部パラメータをそれぞれ用いた歪み補正処理を行うようになっている。すなわち、任意の1台の車載カメラ34,35,36,37に対応する使用映像領域16内の映像(切り出された映像)に対しては、歪み補正部42に設定されている当該1台の車載カメラ34,35,36,37の内部パラメータを用いた歪み補正処理が行われるようになっている。この歪み補正処理は、歪み補正処理前の使用映像領域16内の映像における任意の画素と、この画素に歪み補正処理後において対応する画素との座標(XY座標)の対応関係が記述された所謂マッピングテーブルを用いることによって行うようにしてもよい。この場合、マッピングテーブルにおける前記座標の対応関係は、歪み補正部42に設定されている内部パラメータを用いて規定されているものとなる。   A distortion correction unit 42 serving as a distortion correction unit is connected to the video cutout unit 40, and each of the in-vehicle cameras 34, 35, 36, and 37 cut out by the video cutout unit 40 is connected to the distortion correction unit 42. The video in the corresponding use video area 16 is input. Then, the distortion correction unit 42 sets the distortion set in the distortion correction unit 42 for the video in the use video area 16 for each of the in-vehicle cameras 34, 35, 36, and 37 input from the video cutout unit 40. Distortion correction processing using internal parameters for each of the in-vehicle cameras 34, 35, 36, and 37 as correction values is performed. That is, for the video in the use video area 16 corresponding to any one on-vehicle camera 34, 35, 36, 37 (the clipped video), the one set in the distortion correction unit 42. Distortion correction processing using internal parameters of the in-vehicle cameras 34, 35, 36, and 37 is performed. In this distortion correction processing, a so-called relationship in which coordinates (XY coordinates) between an arbitrary pixel in an image in the use video area 16 before the distortion correction processing and a pixel corresponding to this pixel after the distortion correction processing is described. You may make it carry out by using a mapping table. In this case, the correspondence relationship of the coordinates in the mapping table is defined using internal parameters set in the distortion correction unit 42.

歪み補正部42には、歪み補正値設定手段としての内部パラメータ設定部43が接続されており、この内部パラメータ設定部43は、歪み補正部42に対して、歪み補正処理に用いられる各車載カメラ34,35,36,37ごとの内部パラメータをそれぞれ設定するようになっている。   An internal parameter setting unit 43 as a distortion correction value setting unit is connected to the distortion correction unit 42, and the internal parameter setting unit 43 is connected to each in-vehicle camera used for distortion correction processing with respect to the distortion correction unit 42. Internal parameters for each of 34, 35, 36, and 37 are set.

内部パラメータ設定部43および各車載カメラ34,35,36,37には、内部パラメータ設計値記憶部44が接続されており、この内部パラメータ設計値記憶部44には、各車載カメラ34,35,36,37から取得された各車載カメラ34,35,36,37の内部パラメータの設計値が記憶されている。   An internal parameter design value storage unit 44 is connected to the internal parameter setting unit 43 and the in-vehicle cameras 34, 35, 36, and 37. The internal parameter design value storage unit 44 includes the in-vehicle cameras 34, 35, The design values of the internal parameters of the in-vehicle cameras 34, 35, 36, 37 acquired from 36, 37 are stored.

内部パラメータ設定部43は、車両周辺監視装置32の製造当初には、内部パラメータ設計値記憶部44に記憶された各車載カメラ34,35,36,37ごとの内部パラメータの設計値を、歪み補正部42にそれぞれ設定するようになっている。   The internal parameter setting unit 43 performs distortion correction on the design value of the internal parameter for each of the in-vehicle cameras 34, 35, 36, 37 stored in the internal parameter design value storage unit 44 at the beginning of manufacture of the vehicle periphery monitoring device 32. Each is set in the section 42.

なお、内部パラメータ設定部43によって歪み補正部42に設定されている内部パラメータは、後述する内部パラメータの設定修正作業によって変更可能とされている。   It should be noted that the internal parameters set in the distortion correction unit 42 by the internal parameter setting unit 43 can be changed by an internal parameter setting / correcting operation described later.

歪み補正部42には、視点変換手段としての視点変換部46が接続されており、この視点変換部46には、歪み補正部42による各車載カメラ34,35,36,37ごとの内部パラメータを用いた歪み補正処理によってそれぞれ得られた映像が入力されるようになっている。そして、視点変換部46は、歪み補正部42から入力された各映像を、この視点変換部46に設定されている各車載カメラ34,35,36,37の取り付け位置・姿勢情報としての外部パラメータを用いることによって、当該各映像が示す領域を自車両の上方の所定の視点から見たような画像へと視点変換するようになっている。   A viewpoint conversion unit 46 as a viewpoint conversion unit is connected to the distortion correction unit 42, and internal parameters for the respective in-vehicle cameras 34, 35, 36, and 37 by the distortion correction unit 42 are connected to the viewpoint conversion unit 46. Images respectively obtained by the used distortion correction processing are input. Then, the viewpoint conversion unit 46 uses each parameter input from the distortion correction unit 42 as an external parameter as attachment position / posture information of each on-vehicle camera 34, 35, 36, 37 set in the viewpoint conversion unit 46. By using, the viewpoint of the area indicated by each video is converted into an image as seen from a predetermined viewpoint above the host vehicle.

これにより、フロントカメラ34に対応する歪み補正処理後の映像は、前方視点変換画像3へと視点変換されるようになっている。また、左サイドカメラ35に対応する歪み補正処理後の映像は、左側方視点変換画像5へと視点変換されるようになっている。さらに、右サイドカメラ36に対応する映像は、右側方視点変換画像6へと視点変換されるようになっている。さらにまた、バックカメラ37に対応する映像は、後方視点変換画像7へと視点変換されるようになっている。このように、視点変換部46による視点変換によって得られた各車載カメラ34,35,36,37ごとの視点画像3,5,6,7は、視点変換にともなって互いに合成される(繋ぎ合わされる)とともに、視点変換部46によって独自に生成されたイラスト画像2にも合成されることによって、車両周辺画像1を形成するようになっている。   As a result, the image after distortion correction processing corresponding to the front camera 34 is viewpoint-converted to the front viewpoint conversion image 3. In addition, the image after distortion correction processing corresponding to the left side camera 35 is subjected to viewpoint conversion into the left side viewpoint conversion image 5. Further, the video corresponding to the right side camera 36 is subjected to viewpoint conversion into the right side viewpoint converted image 6. Furthermore, the video corresponding to the back camera 37 is subjected to viewpoint conversion into the rear viewpoint conversion image 7. In this way, the viewpoint images 3, 5, 6, and 7 for each of the in-vehicle cameras 34, 35, 36, and 37 obtained by the viewpoint conversion by the viewpoint conversion unit 46 are combined (connected) with the viewpoint conversion. In addition, the vehicle peripheral image 1 is formed by being combined with the illustration image 2 uniquely generated by the viewpoint conversion unit 46.

この視点変換は、視点変換前の映像における任意の画素と、この画素に視点変換後において対応する画素との座標(XY座標)の対応関係が記述された所謂マッピングテーブルを用いることによって行うようにしてもよい。   This viewpoint conversion is performed by using a so-called mapping table in which a correspondence relationship between an arbitrary pixel in the video before the viewpoint conversion and a pixel corresponding to the pixel after the viewpoint conversion (XY coordinate) is described. May be.

視点変換部46には、取り付け位置・姿勢情報設定手段としての外部パラメータ設定部48が接続されており、この外部パラメータ設定部48は、視点変換部46に対して、視点変換に用いられる各車載カメラ34,35,36,37ごとの外部パラメータをそれぞれ設定するようになっている。   An external parameter setting unit 48 as an attachment position / posture information setting unit is connected to the viewpoint conversion unit 46, and the external parameter setting unit 48 is connected to the viewpoint conversion unit 46 for each in-vehicle used for viewpoint conversion. External parameters for each of the cameras 34, 35, 36, and 37 are set.

外部パラメータ設定部48および各車載カメラ34,35,36,37には、外部パラメータ設計値記憶部50が接続されており、この外部パラメータ設計値記憶部50には、各車載カメラ34,35,36,37から取得された各車載カメラ34,35,36,37の外部パラメータの設計値が記憶されている。   An external parameter design value storage unit 50 is connected to the external parameter setting unit 48 and each of the in-vehicle cameras 34, 35, 36, and 37. The design values of the external parameters of the in-vehicle cameras 34, 35, 36, 37 acquired from 36, 37 are stored.

外部パラメータ設定部48は、車両周辺監視装置32の製造当初には、外部パラメータ設計値記憶部50に記憶された各車載カメラ34,35,36,37ごとの外部パラメータの設計値を、視点変換部46にそれぞれ設定するようになっている。   The external parameter setting unit 48 converts the design values of the external parameters for the respective in-vehicle cameras 34, 35, 36, and 37 stored in the external parameter design value storage unit 50 into viewpoints at the beginning of manufacture of the vehicle periphery monitoring device 32. Each is set in the section 46.

この外部パラメータ設定部48によって視点変換部46に設定されている外部パラメータは、後述する外部パラメータの設定の修正によって変更可能とされている。   The external parameters set in the viewpoint conversion unit 46 by the external parameter setting unit 48 can be changed by correcting the external parameter settings described later.

視点変換部46には、表示部としてのディスプレイ47が接続されており、このディスプレイ47には、視点変換部46による視点変換によって生成された車両周辺画像1が表示されるようになっている。   A display 47 as a display unit is connected to the viewpoint conversion unit 46, and the vehicle peripheral image 1 generated by the viewpoint conversion by the viewpoint conversion unit 46 is displayed on the display 47.

そして、本実施形態における車両周辺監視装置32は、取り付け位置・姿勢情報設定修正手段としての外部パラメータ設定修正部51を備えており、この外部パラメータ設定修正部51は、図2に示すような所定の作業環境の下で、外部パラメータ設定部48による外部パラメータの設定状態(すなわち視点変換部46に設定されている外部パラメータ)を修正可能とされている。   The vehicle periphery monitoring device 32 in this embodiment includes an external parameter setting correction unit 51 as an attachment position / posture information setting correction unit. The external parameter setting correction unit 51 is a predetermined type as shown in FIG. The external parameter setting state by the external parameter setting unit 48 (that is, the external parameter set in the viewpoint conversion unit 46) can be corrected under the above work environment.

ここで、図2に示す作業環境は、既知の形状を有する第1の撮影対象物としての格子パターン53が、自車両の周辺における所定の位置に、自車両を全周にわたって囲むように設置された作業環境とされている。図2に示すように、格子パターン53は、自車両54が載置されている平坦な作業面55上における自車両54の周辺に、そのパターン面が作業面55に平行になるように設置されている。より具体的には、図2における格子パターン53は、作業面55上に、図2における縦方向に長尺な複数本の縦ラインパターン57が、横方向に等間隔を設けて形成され、かつ、図2における横方向に長尺な複数本の横ラインパターン58が、縦ラインパターン57と直角に交差するようにして縦方向に等間隔を設けて形成されていることによって、個々の格子が正方形に形成されている。各ラインパターン57,58は、作業面55上に塗装や貼り付けによって形成されたものであってもよい。また、自車両54は、その全長方向が、縦ラインパターン57の長手方向に平行に設置されている。   Here, the work environment shown in FIG. 2 is installed such that a lattice pattern 53 as a first object to be photographed having a known shape surrounds the host vehicle at a predetermined position around the host vehicle. Working environment. As shown in FIG. 2, the lattice pattern 53 is installed around the own vehicle 54 on the flat work surface 55 on which the own vehicle 54 is placed so that the pattern surface is parallel to the work surface 55. ing. More specifically, the lattice pattern 53 in FIG. 2 is formed on the work surface 55 with a plurality of vertical line patterns 57 elongated in the vertical direction in FIG. 2 at equal intervals in the horizontal direction, and 2, a plurality of horizontal line patterns 58 that are long in the horizontal direction are formed at equal intervals in the vertical direction so as to intersect the vertical line pattern 57 at right angles. It is formed in a square. Each of the line patterns 57 and 58 may be formed on the work surface 55 by painting or pasting. The own vehicle 54 is installed such that its full length direction is parallel to the longitudinal direction of the vertical line pattern 57.

外部パラメータ設定修正部51についてさらに詳述すると、図1に示すように、この外部パラメータ設定修正部51は、特徴点抽出手段としての特徴点抽出部52を有しており、この特徴点抽出部52には、視点変換部46が接続されている。   The external parameter setting correction unit 51 will be described in further detail. As shown in FIG. 1, the external parameter setting correction unit 51 has a feature point extraction unit 52 as a feature point extraction unit. A viewpoint conversion unit 46 is connected to 52.

特徴点抽出部52は、図2に示した作業環境の下で、図3に示すように、使用映像領域16内に格子パターン53が映し込まれた各車載カメラ34,35,36,37の撮影映像15に基づいて、図4に示すような格子パターン53の画像(以下、格子パターン画像59と称する)がそれぞれ含まれた各視点変換画像3,5,6,7が繋ぎ合わされた車両周辺画像1が生成されると、この車両周辺画像1を視点変換部46から取得するようになっている。   As shown in FIG. 3, the feature point extraction unit 52 of each of the in-vehicle cameras 34, 35, 36, and 37 in which the grid pattern 53 is reflected in the use video area 16 under the work environment shown in FIG. 4. Vehicle periphery in which viewpoint converted images 3, 5, 6, and 7 each including an image of a grid pattern 53 (hereinafter referred to as a grid pattern image 59) as shown in FIG. When the image 1 is generated, the vehicle peripheral image 1 is acquired from the viewpoint conversion unit 46.

なお、図4に示す車両周辺画像1は、内部パラメータ設定部43によって現在設定されている内部パラメータに誤差がなく、歪み補正部42による歪み補正処理によって歪みが補正し切れているものの、外部パラメータ設定部48によって現在設定されている外部パラメータに誤差があるため、視点変換画像3,5,6,7同士の間に傾き等による繋がりのずれが生じている画像とされている。   Note that the vehicle peripheral image 1 shown in FIG. 4 has no error in the internal parameters currently set by the internal parameter setting unit 43 and the distortion is completely corrected by the distortion correction processing by the distortion correction unit 42. Since there is an error in the external parameter currently set by the setting unit 48, it is assumed that there is a connection shift due to an inclination or the like between the viewpoint converted images 3, 5, 6, and 7.

そして、特徴点抽出部52は、視点変換部46から取得された格子パターン画像59を含む車両周辺画像1から、図5に示すように、特徴点として、格子パターン画像59における格子点60を抽出するようになっている。この格子点60は、図2に示した格子パターン53における縦ラインパターン57と横ラインパターン58との交点に車両周辺画像1上において対応する点である。なお、図5において、各視点変換画像3,5,6,7のそれぞれのほぼ中央部に示されている1点の格子点60Aは、各視点変換画像3,5,6,7の各格子点60の座標を把握するための基準点として特別に認識されたものであり、この格子点60Aは、他の格子点60とは違う色で設定されており、車両の前後左右の方向に各1点以上検出されるように設定されている。尚、各格子点60Aは既知の位置に設定されており、これらの格子点60Aを基準として、後述する各繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bに属する各格子点60のそれぞれの位置を把握することができるようになっている。   Then, the feature point extraction unit 52 extracts a grid point 60 in the grid pattern image 59 as a feature point from the vehicle peripheral image 1 including the grid pattern image 59 acquired from the viewpoint conversion unit 46, as shown in FIG. It is supposed to be. The grid point 60 is a point corresponding to the intersection of the vertical line pattern 57 and the horizontal line pattern 58 in the grid pattern 53 shown in FIG. In FIG. 5, one grid point 60 </ b> A shown at substantially the center of each viewpoint conversion image 3, 5, 6, 7 is a grid point of each viewpoint conversion image 3, 5, 6, 7. The grid point 60A is specially recognized as a reference point for grasping the coordinates of the point 60, and the grid point 60A is set in a color different from that of the other grid points 60. It is set so that one or more points are detected. Each lattice point 60A is set at a known position, and each lattice belonging to each joint portion 3a, 3b, 5a, 5b, 6a, 6b, 7a, 7b, which will be described later, is based on these lattice points 60A. Each position of the point 60 can be grasped.

なお、図5において、格子点60の正規の配列方向は、図5における縦方向および横方向の二方向であるが、図5に示す各格子点60の配列状態は、外部パラメータの誤差によって正規の配列方向から傾きを有した状態となっている。   In FIG. 5, the normal arrangement direction of the lattice points 60 is two directions, that is, the vertical direction and the horizontal direction in FIG. 5, but the arrangement state of each lattice point 60 shown in FIG. It is in a state having an inclination from the arrangement direction.

上記構成に加えて、さらに、本実施形態において、外部パラメータ設定修正部51は、図1に示すように、誤差検出手段としての誤差検出部62を有しており、この誤差検出部62には、特徴点抽出部52が接続されている。また、誤差検出部62には、格子パターン53の形状や座標に関するデータが格納された格子パターンデータベース63が接続されている。   In addition to the above configuration, in the present embodiment, the external parameter setting correction unit 51 includes an error detection unit 62 as error detection means, as shown in FIG. The feature point extraction unit 52 is connected. The error detector 62 is connected to a lattice pattern database 63 that stores data relating to the shape and coordinates of the lattice pattern 53.

誤差検出部62は、特徴点抽出部52によって格子点60が抽出されると、この抽出結果と、格子パターンデータベース63に格納されたデータとに基づいて、任意の1個の視点変換画像3,5,6,7についての他の視点変換画像3,5,6,7との繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bにおける格子点60の配列状態と、繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bにおける格子パターン53の正規の形状(すなわち、格子パターン画像59の正規の形状)とを比較するようになっている。   When the grid point 60 is extracted by the feature point extraction unit 52, the error detection unit 62, based on this extraction result and the data stored in the grid pattern database 63, selects one arbitrary viewpoint conversion image 3, The arrangement state of the grid points 60 in the joint portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, and 7b with the other viewpoint conversion images 3, 5, 6, and 7 for 5, 6, and 7, and the joints The regular shape of the lattice pattern 53 in the portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, 7b (that is, the regular shape of the lattice pattern image 59) is compared.

ここで、繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bとは、1個の視点変換画像3,5,6,7における他の視点変換画像3,5,6,7との繋ぎ目8,10,11,12に連なる所定範囲の部分(端縁部)をいう。   Here, the joint portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, and 7b are the other viewpoint converted images 3, 5, 6, and 7 in one viewpoint converted image 3, 5, 6, and 7. The part (edge part) of the predetermined range which continues to the joints 8, 10, 11, and 12 with.

例えば、図5に示すように、前方視点変換画像3においては、第1の繋ぎ目8に連なる所定範囲の部分(左端縁部)が、左側方視点変換画像5との繋ぎ目部分3aとされ、また、第2の繋ぎ目10に連なる所定範囲の部分(右端縁部)が、右側方視点変換画像6との繋ぎ目部分3bとされている。この前方視点変換画像3における一対の繋ぎ目部分3a,3bは、格子点60の正規の整列方向としての図5における横方向に間隔を設けて形成されている。   For example, as shown in FIG. 5, in the front viewpoint converted image 3, a part of the predetermined range (left edge) that is continuous with the first joint 8 is a joint part 3 a with the left side viewpoint converted image 5. In addition, a predetermined range portion (right end edge portion) that is continuous with the second joint 10 is a joint portion 3 b with the right-side viewpoint converted image 6. The pair of joint portions 3a and 3b in the front viewpoint converted image 3 are formed with a gap in the horizontal direction in FIG. 5 as the normal alignment direction of the lattice points 60.

また、左側方視点変換画像5においては、第1の繋ぎ目8に連なる所定範囲の部分(端縁部)が、前方視点変換画像3との繋ぎ目部分5aとされ、また、第3の繋ぎ目11に連なる所定範囲の部分(後端縁部)が、後方視点変換画像7との繋ぎ目部分5bとされている。この左側方視点変換画像5における一対の繋ぎ目部分5a,5bは、格子点60の正規の整列方向としての図5における縦方向に間隔を設けて形成されている。   Further, in the left-side viewpoint converted image 5, a predetermined range portion (edge portion) continuous with the first joint 8 is a joint portion 5 a with the front viewpoint converted image 3, and the third joint A portion (rear edge portion) in a predetermined range connected to the eye 11 is a joint portion 5 b with the rear viewpoint converted image 7. The pair of joint portions 5a and 5b in the left-side viewpoint converted image 5 are formed at intervals in the vertical direction in FIG. 5 as the normal alignment direction of the lattice points 60.

さらに、右側方視点変換画像6においては、第2の繋ぎ目10に連なる所定範囲の部分(端縁部)が、前方視点変換画像3との繋ぎ目部分6aとされ、また、第4の繋ぎ目12に連なる所定範囲の部分(後端縁部)が、後方視点変換画像7との繋ぎ目部分6bとされている。この右側方視点変換画像6における一対の繋ぎ目部分6a,6bは、格子点60の正規の整列方向としての図5における縦方向に間隔を設けて形成されている。   Further, in the right-side viewpoint converted image 6, a portion (edge portion) in a predetermined range connected to the second joint 10 is a joint portion 6 a with the front viewpoint converted image 3, and the fourth joint A portion (rear edge portion) in a predetermined range connected to the eye 12 is a joint portion 6 b with the rear viewpoint converted image 7. The pair of joint portions 6a and 6b in the right-side viewpoint converted image 6 are formed with a gap in the vertical direction in FIG. 5 as the normal alignment direction of the lattice points 60.

さらにまた、後方視点変換画像7においては、第3の繋ぎ目11に連なる所定範囲の部分(端縁部)が、左側方視点変換画像5との繋ぎ目部分7aとされ、また、第4の繋ぎ目12に連なる所定範囲の部分(端縁部)が、右側方視点変換画像6との繋ぎ目部分7bとされている。この後方視点変換画像7における一対の繋ぎ目部分7a,7bは、格子点60の正規の整列方向としての図5における横方向に間隔を設けて形成されている。   Furthermore, in the rear viewpoint converted image 7, a predetermined range portion (edge portion) continuous with the third joint 11 is a joint portion 7 a with the left-side viewpoint converted image 5, A portion (edge portion) in a predetermined range connected to the joint 12 is a joint portion 7 b with the right-side viewpoint converted image 6. The pair of joint portions 7a and 7b in the rear viewpoint converted image 7 are formed with a gap in the horizontal direction in FIG. 5 as the normal alignment direction of the lattice points 60.

さて、誤差検出部62は、このような繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bに対する前記比較の結果に基づいて、繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bにおける格子点60の位置の誤差を検出するようになっている。   Now, the error detector 62 determines the joint portions 3a, 3b, 5a, 5b, 6a based on the comparison result for the joint portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, 7b. , 6b, 7a, 7b, the error of the position of the grid point 60 is detected.

ここで、図6は、前方視点変換画像3における左側方視点変換画像5との繋ぎ目部分3a、および、左側方視点変換画像5における前方視点変換画像3との繋ぎ目部分5aのそれぞれにおいての格子点60の配列状態と格子パターン53(格子パターン画像59)の正規の形状との比較および誤差の検出状態を示している。   Here, FIG. 6 shows a joint portion 3a with the left-side viewpoint converted image 5 in the front viewpoint converted image 3 and a joint portion 5a with the front viewpoint converted image 3 in the left-side viewpoint converted image 5. A comparison between the arrangement state of the lattice points 60 and the regular shape of the lattice pattern 53 (lattice pattern image 59) and an error detection state are shown.

なお、図6においては、格子点60の位置の誤差が、繋ぎ目部分3a,5aにおける各格子点60ごとに算出されている。誤差の大きさの単位は、ピクセルであってもよい。   In FIG. 6, the position error of the grid point 60 is calculated for each grid point 60 in the joint portions 3a and 5a. The unit of error magnitude may be a pixel.

上記構成に加えて、さらに、本実施形態において、外部パラメータ設定修正部51は、図1に示すように、第1の補正量算出手段としての第1補正量算出部64を有しており、この第1補正量算出部64には、誤差検出部62が接続されている。   In addition to the above configuration, in the present embodiment, the external parameter setting correction unit 51 further includes a first correction amount calculation unit 64 as a first correction amount calculation unit, as shown in FIG. An error detection unit 62 is connected to the first correction amount calculation unit 64.

第1補正量算出部64は、誤差検出部62による格子点60の位置の誤差の検出結果を取得するようになっている。そして、第1補正量算出部64は、誤差検出部62の検出結果に基づいて、繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bにおける格子点60の位置の誤差を解消することが可能な繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bに対応する第1の取り付け位置・姿勢情報の補正量として、第1の補正量を算出するようになっている。   The first correction amount calculation unit 64 acquires the detection result of the position error of the grid point 60 by the error detection unit 62. Then, based on the detection result of the error detector 62, the first correction amount calculator 64 eliminates the error of the position of the grid point 60 in the joint portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, 7b. The first correction amount is calculated as the correction amount of the first attachment position / posture information corresponding to the joint portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, 7b that can be performed. ing.

上記構成に加えて、さらに、本実施形態において、外部パラメータ設定修正部51は、第2の補正量算出手段としての第2補正量算出部65を有しており、この第2補正量算出部65には、第1補正量算出部64が接続されている。   In addition to the above configuration, in the present embodiment, the external parameter setting correction unit 51 further includes a second correction amount calculation unit 65 serving as a second correction amount calculation unit, and the second correction amount calculation unit. A first correction amount calculation unit 64 is connected to 65.

第2補正量算出部65は、第1補正量算出部64による第1の補正量の算出結果を取得するようになっている。   The second correction amount calculation unit 65 acquires the calculation result of the first correction amount by the first correction amount calculation unit 64.

そして、第2補正量算出部65は、視点変換画像3,5,6,7における格子点60の正規の配列方向に間隔を設けるように形成された一対の繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bのそれぞれについての第1補正量算出部64の算出結果を用いて、第2の取り付け位置・姿勢情報の補正量としての第2の補正量を算出するようになっている。   Then, the second correction amount calculation unit 65 includes a pair of joint portions 3 a, 3 b, 5 a, and a pair of joint portions 3 a, 3 b, 5 a, The second correction amount as the correction amount of the second attachment position / posture information is calculated using the calculation result of the first correction amount calculation unit 64 for each of 5b, 6a, 6b, 7a, 7b. It has become.

この第2の補正量は、視点変換画像3,5,6,7における前記一対の前記繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bに挟まれた繋ぎ目部分以外の領域(以下、非繋ぎ目領域と称する)における格子点60の位置の誤差を解消することが可能な非繋ぎ目領域に対応する第2の取り付け位置・姿勢情報の補正量とされている。   This second correction amount is other than the joint portion sandwiched between the pair of joint portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, 7b in the viewpoint conversion images 3, 5, 6, 7. The correction amount of the second attachment position / posture information corresponding to the non-joint region that can eliminate the error in the position of the grid point 60 in the region (hereinafter, referred to as a non-joint region).

この第2の補正量は、前記一対の繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bのそれぞれについての第1補正量算出部64の算出結果を用いた線形的な補間によって算出されるようになっている。   This second correction amount is obtained by linear interpolation using the calculation result of the first correction amount calculation unit 64 for each of the pair of joint portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, 7b. It is calculated by.

具体的な例としては、図7に示すように、第1補正量算出部64によって、左側方視点変換画像5における非繋ぎ目領域5cを挟む左側方視点変換画像5の一対の繋ぎ目部分5a,5bの双方についての第1の補正量が算出されている場合を考える。   As a specific example, as illustrated in FIG. 7, the first correction amount calculation unit 64 causes a pair of joint portions 5 a of the left-side viewpoint converted image 5 sandwiching the non-joint region 5 c in the left-side viewpoint converted image 5. , 5b, the first correction amount is calculated.

ここで、図7に示すように、左側方視点変換画像5における図7の一点鎖線上に直線状に配列された最も左側の1列の格子点60列に着目すると、左側方視点変換画像5における前方視点変換画像3との繋ぎ目部分5aに位置する当該格子点60列中の第1の格子点60(P)に対応する第1の補正量として、第1の格子点60(P)の位置をその誤差を解消すべく図7における+x方向にΔxだけ修正することができる補正量が算出されているとする。 Here, as shown in FIG. 7, when attention is paid to the leftmost grid line 60 arranged in a straight line on the alternate long and short dash line in FIG. As the first correction amount corresponding to the first grid point 60 (P 1 ) in the grid point 60 row located at the joint portion 5 a with the forward viewpoint converted image 3, the first grid point 60 (P a correction amount that can be modified by [Delta] x 1 the position in the + x direction in FIG. 7 in order to eliminate the error of 1) is calculated.

また、このとき左側方視点変換画像5における後方視点変換画像7との繋ぎ目部分5bに位置する当該格子点60列中の第2の格子点60(P)に対応する第1の補正量として、第2の格子点60(P)の位置をその誤差を解消すべく図7における−x方向にΔxだけ修正することができる補正量が算出されているとする。 At this time, the first correction amount corresponding to the second grid point 60 (P 2 ) in the grid point 60 row located at the joint portion 5b between the left-side viewpoint converted image 5 and the rear viewpoint converted image 7 is provided. Assuming that a correction amount is calculated that can correct the position of the second grid point 60 (P 2 ) by Δx 2 in the −x direction in FIG. 7 in order to eliminate the error.

このような場合には、第2補正量算出部65による非繋ぎ目領域5cに対する線形的な補間によって、前記第1の格子点60(P)と前記第2の格子点60(P)との中間点に位置する第3の格子点60(P)の位置を、(Δx−Δx)/2だけ修正することができる第2の補正量が算出されるようにしてもよい。このような線形的な補間は、一対の繋ぎ目部分5a,5bにおける片方の補正量が0(すなわち誤差がない)場合にも有効としてもよい。 In such a case, the first grid point 60 (P 1 ) and the second grid point 60 (P 2 ) are obtained by linear interpolation with respect to the non-joint region 5 c by the second correction amount calculation unit 65. A second correction amount that can correct the position of the third grid point 60 (P 3 ) located at the midpoint between the two points by (Δx 1 −Δx 2 ) / 2 may be calculated. . Such linear interpolation may be effective even when the correction amount of one of the pair of joint portions 5a and 5b is 0 (that is, there is no error).

なお、このような線形的な補間によって非繋ぎ目領域の補正量を算出する理由は、歪み補正処理が適切に行われた視点変換画像3,5,6,7は、外部パラメータの誤差による線形的なずれのみが残っているとみなすことができ、このずれを、直線状に配列された格子点60列の配列方向(例えば、図7における一点鎖線の方向)についての正規の配列方向(図7における縦方向)に対する傾きとして把握することができるからである。   Note that the reason for calculating the correction amount of the non-joint region by such linear interpolation is that the viewpoint conversion images 3, 5, 6, and 7 in which the distortion correction processing has been appropriately performed are linear due to an error of an external parameter. It can be considered that only a certain misalignment remains, and this misalignment is regarded as a normal arrangement direction (for example, the direction of the dashed-dotted line in FIG. 7) of 60 rows of lattice points arranged in a straight line. This is because it can be grasped as an inclination with respect to the vertical direction in FIG.

上記構成に加えて、さらに、本実施形態において、外部パラメータ設定修正部51は、図1に示すように、第1の補正手段としての第1補正部67を有しており、この第1補正部67には、第1補正量算出部64および外部パラメータ設定部48が接続されている。   In addition to the above-described configuration, in the present embodiment, the external parameter setting correction unit 51 includes a first correction unit 67 as a first correction unit as shown in FIG. A first correction amount calculation unit 64 and an external parameter setting unit 48 are connected to the unit 67.

第1補正部67は、第1補正量算出部64によって算出された第1の補正量を、第1補正量算出部64から取得するようになっている。そして、第1補正部67は、第1補正量算出部64から取得された第1の補正量に基づいて、外部パラメータ設定部48によって現在設定されている外部パラメータにおける図5の繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bに対応する外部パラメータを補正するようになっている。   The first correction unit 67 acquires the first correction amount calculated by the first correction amount calculation unit 64 from the first correction amount calculation unit 64. Then, the first correction unit 67, based on the first correction amount acquired from the first correction amount calculation unit 64, the joint portion 3a in FIG. 5 in the external parameter currently set by the external parameter setting unit 48. , 3b, 5a, 5b, 6a, 6b, 7a, 7b, external parameters corresponding to the external parameters are corrected.

この補正は、現在設定されている外部パラメータ(例えば、設計値)における繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bに対応する外部パラメータ(例えば、設計値)に対する第1の補正量の加算であってもよい。   This correction is the first for the external parameters (for example, design values) corresponding to the joint portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, and 7b in the currently set external parameters (for example, design values). The correction amount may be added.

上記構成に加えて、さらに、本実施形態において、外部パラメータ設定修正部51は、第2の補正手段としての第2補正部68を有しており、この第2補正部68には、第2補正量算出部65および外部パラメータ設定部48が接続されている。   In addition to the above configuration, in the present embodiment, the external parameter setting correction unit 51 includes a second correction unit 68 as a second correction unit. The second correction unit 68 includes a second correction unit 68. A correction amount calculation unit 65 and an external parameter setting unit 48 are connected.

第2補正部68は、第2補正量算出部65によって算出された第2の補正量を、第2補正量算出部65から取得するようになっている。そして、第2補正部68は、第2補正量算出部65から取得された第2の補正量に基づいて、外部パラメータ設定部48によって現在設定されている外部パラメータにおける非繋ぎ目領域(5c等)に対応する外部パラメータを補正するようになっている。この補正は、現在設定されている外部パラメータ(例えば、設計値)における非繋ぎ目領域に対応する外部パラメータ(例えば、設計値)に対する第2の補正量の加算であってもよい。   The second correction unit 68 acquires the second correction amount calculated by the second correction amount calculation unit 65 from the second correction amount calculation unit 65. Then, based on the second correction amount acquired from the second correction amount calculation unit 65, the second correction unit 68 uses a non-joint region (5c, etc.) in the external parameter currently set by the external parameter setting unit 48. ) Is corrected. This correction may be addition of a second correction amount to an external parameter (for example, a design value) corresponding to a non-joint region in the currently set external parameter (for example, a design value).

このような構成によれば、 外部パラメータ設定修正部51により、外部パラメータの設定の修正を、格子パターン画像59が含まれた歪み補正処理後の車両周辺画像1に基づいて行うことができ、この際に、繋ぎ目部分8,10,11,12については、格子点60の位置の誤差を検出し、検出された誤差を解消する補正によって適切な外部パラメータを実測する一方で、繋ぎ目部分に挟まれた非繋ぎ目領域については、線形的な補間による補正のみによって外部パラメータを推測することができる。そして、この結果、視点変換画像3,5,6,7同士のずれが少ない視認性に優れた車両周辺画像1を低コストで表示することができる。   According to such a configuration, the external parameter setting correction unit 51 can correct the setting of the external parameter based on the vehicle peripheral image 1 after the distortion correction processing including the lattice pattern image 59. At the same time, for the joint portions 8, 10, 11, and 12, an error in the position of the lattice point 60 is detected, and an appropriate external parameter is measured by correction to eliminate the detected error, while the joint portion is measured. With respect to the sandwiched non-joint region, the external parameter can be estimated only by correction by linear interpolation. As a result, it is possible to display the vehicle peripheral image 1 excellent in visibility with little deviation between the viewpoint conversion images 3, 5, 6, and 7 at low cost.

上記構成に加えて、さらに、本実施形態における車両周辺監視装置32は、図1に示すように、歪み補正値設定修正手段としての内部パラメータ設定修正部70を備えており、この内部パラメータ設定修正部70は、第2の撮影対象物としての前述した格子パターン53が設置された図2と同様の作業環境の下で、内部パラメータ設定部43による内部パラメータの設定状態(すなわち、歪み補正部42に設定されている内部パラメータ)を修正可能とされている。   In addition to the above configuration, the vehicle periphery monitoring device 32 in the present embodiment further includes an internal parameter setting correction unit 70 as a distortion correction value setting correction unit, as shown in FIG. The unit 70 sets the internal parameters set by the internal parameter setting unit 43 (that is, the distortion correction unit 42) under the same working environment as that of FIG. 2 in which the above-described lattice pattern 53 as the second imaging target is installed. (Internal parameters set to) can be modified.

ただし、本実施形態において、内部パラメータの設定状態の修正は、前述した外部パラメータ設定修正部51による外部パラメータの設定状態の修正の初期段階において既に完了されていることが必要となっている。   However, in the present embodiment, the correction of the internal parameter setting state needs to be already completed in the initial stage of the correction of the external parameter setting state by the external parameter setting correction unit 51 described above.

この内部パラメータ設定修正部70について詳述すると、図1に示すように、内部パラメータ設定修正部70は、歪み補正制御手段としての歪み補正制御部71を有しており、この歪み補正制御部71には、映像切り出し部40および歪み補正部42がそれぞれ接続されている。   The internal parameter setting correction unit 70 will be described in detail. As shown in FIG. 1, the internal parameter setting correction unit 70 includes a distortion correction control unit 71 as a distortion correction control unit. Are connected to the video cutout unit 40 and the distortion correction unit 42, respectively.

歪み補正制御部71は、図2に示す作業環境の下で、4台の車載カメラ34,35,36,37の撮影映像から、格子パターン53が映し込まれた使用映像領域16内の映像15(図3参照)がそれぞれ切り出されたことを、映像切り出し部40の処理結果から検知するようになっている。   Under the work environment shown in FIG. 2, the distortion correction control unit 71 uses the video 15 in the use video area 16 in which the grid pattern 53 is reflected from the video shots of the four in-vehicle cameras 34, 35, 36, and 37. It is detected from the processing result of the video cutout unit 40 that each (see FIG. 3) has been cut out.

そして、歪み補正制御部71は、このような格子パターン53が映し込まれた使用映像領域16内の撮影映像(以下、格子パターン映像と称する)が切り出された後には、歪み補正部42を制御することにより、歪み補正部42に、内部パラメータの設定修正作業用の歪み補正処理を行わせるようになっている。   The distortion correction control unit 71 controls the distortion correction unit 42 after a captured image (hereinafter referred to as a lattice pattern image) in the use image area 16 in which the lattice pattern 53 is reflected is cut out. Thus, the distortion correction unit 42 is caused to perform distortion correction processing for internal parameter setting correction work.

この設定修正作業用の歪み補正処理は、内部パラメータ設定部43によって現在設定されている各車載カメラ34,35,36,37ごとの内部パラメータ(すなわち、第1の歪み補正値)をそれぞれ用いた各車載カメラ34,35,36,37にそれぞれ対応する各格子パターン映像ごとに行われる歪み補正処理となっている。   The distortion correction processing for setting correction work uses the internal parameters (that is, the first distortion correction value) for each of the in-vehicle cameras 34, 35, 36, and 37 that are currently set by the internal parameter setting unit 43. Distortion correction processing is performed for each grid pattern image corresponding to each of the in-vehicle cameras 34, 35, 36, and 37.

ここで、前述のように、車両周辺監視装置32の製造当初においては、内部パラメータ設定部43によって歪み補正部42に内部パラメータの設計値が設定されている。   Here, as described above, at the beginning of manufacture of the vehicle periphery monitoring device 32, the internal parameter setting unit 43 sets the design value of the internal parameter in the distortion correction unit 42.

したがって、例えば、車両周辺監視装置32の製造後に初めて行われる設定修正作業用の歪み補正処理は、各車載カメラ34,35,36,37の内部パラメータの設計値を用いて行われることになる。   Therefore, for example, the distortion correction processing for setting correction work that is performed for the first time after the manufacture of the vehicle periphery monitoring device 32 is performed using the design values of the internal parameters of the in-vehicle cameras 34, 35, 36, and 37.

なお、図8は、格子パターン映像に対する設定修正作業用の歪み補正処理を模式的に示したものである。ただし、図8における歪み補正処理後の格子パターン映像は、内部パラメータ設定部43によって現在設定されている内部パラメータ(例えば、設計値)に誤差があるため、歪み補正処理によっても歪みが補正し切れていない映像となっている。   FIG. 8 schematically shows a distortion correction process for setting correction work on a lattice pattern image. However, since the lattice pattern image after the distortion correction processing in FIG. 8 has an error in the internal parameter (for example, design value) currently set by the internal parameter setting unit 43, the distortion is not completely corrected by the distortion correction processing. It is not a video.

本実施形態において、このような設定修正作業用の歪み補正処理によって得られた映像は、視点変換部46によって視点変換されることによって、図9に示すような格子パターン画像59が含まれた車両周辺画像1を形成するようになっている。   In the present embodiment, a video obtained by such distortion correction processing for setting correction work is subjected to viewpoint conversion by the viewpoint conversion unit 46, whereby a vehicle including a grid pattern image 59 as shown in FIG. A peripheral image 1 is formed.

なお、図9における車両周辺画像1は、図8と同様に、内部パラメータ設定部43によって現在設定されている内部パラメータに誤差があるため、歪みが除去し切れていない画像となっている。このことは、格子パターン画像59が歪んでいることからも分かる。   Note that the vehicle peripheral image 1 in FIG. 9 is an image in which distortion is not completely removed because there is an error in the internal parameters currently set by the internal parameter setting unit 43, as in FIG. This can also be seen from the fact that the lattice pattern image 59 is distorted.

さらに、図9における車両周辺画像1は、外部パラメータ設定部48によって現在設定されている外部パラメータに誤差があるため、視点変換画像3,5,6,7同士が適切に繋がっていない画像となっている。   Furthermore, the vehicle peripheral image 1 in FIG. 9 is an image in which the viewpoint conversion images 3, 5, 6, and 7 are not appropriately connected because there is an error in the external parameters currently set by the external parameter setting unit 48. ing.

上記構成に加えて、さらに、本実施形態において、内部パラメータ設定修正部70は、図1に示すように、歪み領域検出手段としての歪み領域検出部72を有しており、この歪み領域検出部72には、視点変換部46が接続されている。   In addition to the above configuration, in the present embodiment, the internal parameter setting correction unit 70 includes a distortion region detection unit 72 as a distortion region detection unit, as shown in FIG. A viewpoint conversion unit 46 is connected to 72.

この歪み領域検出部72には、設定修正作業用の歪み補正処理によって得られた映像に対する視点変換部46による視点変換によって得られた画像、すなわち、格子パターン画像59が含まれた車両周辺画像1(視点変換画像3,5,6,7であってもよい)が入力されるようになっている。   The distortion region detection unit 72 includes an image obtained by viewpoint conversion by the viewpoint conversion unit 46 with respect to a video obtained by distortion correction processing for setting correction work, that is, a vehicle peripheral image 1 including a lattice pattern image 59. (May be viewpoint-converted images 3, 5, 6, and 7).

また、歪み領域検出部72には、前述した格子パターンデータベース63が接続されている。   In addition, the lattice pattern database 63 described above is connected to the strain region detection unit 72.

歪み領域検出部72は、視点変換部46から、格子パターン画像59が含まれた車両周辺画像1が入力されると、この車両周辺画像1上における格子パターン53(すなわち、格子パターン画像59)の形状と、格子パターンデータベース63内のデータが示す格子パターン53の正規の形状との比較を行うようになっている。そして、歪み領域検出部72は、当該比較を行うことによって、格子パターン画像59が含まれた車両周辺画像1から、歪み補正処理が正確に行われずに歪みが残存している当該車両周辺画像1内の領域である歪み領域を、この歪み領域における歪みの残存量とともに検出するようになっている。残存量の単位としては、例えば、ピクセルを用いればよい。   When the vehicle peripheral image 1 including the lattice pattern image 59 is input from the viewpoint conversion unit 46 to the distortion region detection unit 72, the distortion region detection unit 72 generates the lattice pattern 53 (that is, the lattice pattern image 59) on the vehicle peripheral image 1. The shape is compared with the regular shape of the lattice pattern 53 indicated by the data in the lattice pattern database 63. Then, by performing the comparison, the distortion region detection unit 72 performs the comparison from the vehicle peripheral image 1 including the lattice pattern image 59, so that the distortion correction processing is not accurately performed and the vehicle peripheral image 1 in which distortion remains. The distortion area which is the inner area is detected together with the remaining amount of distortion in the distortion area. As a unit of the remaining amount, for example, a pixel may be used.

このとき、歪み領域検出部72は、格子パターン画像59が含まれた車両周辺画像1から、図10に示すように、特徴点としての前述した格子点60を画像認識によって抽出し、抽出された格子点60の配列状態に基づいて、格子パターン画像59の形状と格子パターン53の正規の形状とを比較するようにしてもよい。   At this time, as shown in FIG. 10, the strain area detection unit 72 extracts and extracts the above-described grid points 60 as feature points from the vehicle surrounding image 1 including the grid pattern image 59 by image recognition. Based on the arrangement state of the lattice points 60, the shape of the lattice pattern image 59 may be compared with the regular shape of the lattice pattern 53.

なお、図10においては、破線の枠で囲まれた車両周辺画像1(視点変換画像3,5,6,7)上の領域が、歪み領域75となっている。   In FIG. 10, a region on the vehicle peripheral image 1 (viewpoint conversion images 3, 5, 6, and 7) surrounded by a broken-line frame is a distortion region 75.

上記構成に加えて、さらに、本実施形態において、内部パラメータ設定修正部70は、図1に示すように、歪み補正値算出手段としての内部パラメータ算出部76を有しており、この内部パラメータ算出部76には、歪み領域検出部72が接続されている。   In addition to the above configuration, in the present embodiment, the internal parameter setting correction unit 70 has an internal parameter calculation unit 76 as a distortion correction value calculation unit as shown in FIG. A distortion region detection unit 72 is connected to the unit 76.

内部パラメータ算出部76には、歪み領域検出部72の検出結果が入力されるようになっている。そして、内部パラメータ算出部76は、入力された検出結果に基づいて、追加補正量として、歪み領域検出部72によって検出された歪み領域75における歪みを補正すること(歪み補正処理の不足量を補うこと)が可能な歪み成分の補正量(例えば、前記画像主点や内部パラメータを現在の値から変更すべき量)を求めるようになっている。この歪み成分の補正量を求めるに際しては、歪み領域検出部72によって検出された歪みの残存量が用いられるようになっている。そして、内部パラメータ算出部76は、このように、歪み成分の補正量を求めた上で、求められた歪み成分の補正量を、内部パラメータ設定部43によって現在設定されている内部パラメータに加算することによって、第2の歪み補正値としての内部パラメータの実測値を算出するようになっている。この内部パラメータの実測値は、使用映像領域16のうちの歪み領域75に設定修正作業用の歪み補正処理前において対応する特定の映像領域に関する新たな内部パラメータとなる。   The internal parameter calculation unit 76 is input with the detection result of the distortion region detection unit 72. Then, the internal parameter calculation unit 76 corrects distortion in the distortion region 75 detected by the distortion region detection unit 72 as an additional correction amount based on the input detection result (compensates for an insufficient amount of distortion correction processing). A distortion component correction amount (for example, an amount by which the image principal point or internal parameter should be changed from a current value) is obtained. In determining the correction amount of the distortion component, the remaining distortion amount detected by the distortion region detection unit 72 is used. Then, the internal parameter calculation unit 76 obtains the distortion component correction amount in this way, and then adds the obtained distortion component correction amount to the internal parameter currently set by the internal parameter setting unit 43. Thus, an actually measured value of the internal parameter as the second distortion correction value is calculated. The actually measured value of the internal parameter becomes a new internal parameter related to a specific video area corresponding to the distortion area 75 in the use video area 16 before the distortion correction processing for setting correction work.

上記構成に加えて、さらに、本実施形態において、内部パラメータ設定修正部70は、図1に示すように、実測値記憶部77を有しており、この実測値記憶部77には、内部パラメータ算出部76が接続されている。実測値記憶部77には、内部パラメータ算出部76によって算出された内部パラメータの実測値が記憶されるようになっている。   In addition to the above configuration, in the present embodiment, the internal parameter setting correction unit 70 includes an actual value storage unit 77 as shown in FIG. A calculation unit 76 is connected. The actual measurement value storage unit 77 stores the actual measurement value of the internal parameter calculated by the internal parameter calculation unit 76.

上記構成に加えて、さらに、本実施形態において、内部パラメータ設定修正部70は、歪み補正値設定制御手段としての内部パラメータ設定制御部78を有しており、この内部パラメータ設定制御部78には、内部パラメータ設定部43および内部パラメータ算出部76が接続されている。   In addition to the above configuration, in the present embodiment, the internal parameter setting correction unit 70 further includes an internal parameter setting control unit 78 as a distortion correction value setting control unit. The internal parameter setting control unit 78 includes The internal parameter setting unit 43 and the internal parameter calculation unit 76 are connected.

内部パラメータ設定制御部78は、内部パラメータ算出部76によって内部パラメータの実測値が算出されると、内部パラメータ設定部43を制御することにより、内部パラメータ設定部43に、実測値記憶部77に記憶された内部パラメータの実測値を取得させるようになっている。そして、内部パラメータ設定制御部78は、内部パラメータ設定部43に、実測値記憶部77から取得された内部パラメータの実測値を、使用映像領域16のうちの歪み領域75に対応する特定の映像領域内の映像に対する歪み補正処理に用いられる内部パラメータとして新たに設定させるようになっている。また、このとき、内部パラメータ設定制御部78は、使用映像領域16のうちの前記特定の映像領域以外の映像領域については、現在設定されている内部パラメータを引き続き歪み補正処理に用いられる内部パラメータとして設定させ続けるようになっている。   When the measured value of the internal parameter is calculated by the internal parameter calculation unit 76, the internal parameter setting control unit 78 controls the internal parameter setting unit 43 to store the internal parameter setting unit 43 in the measured value storage unit 77. The measured value of the internal parameter is acquired. Then, the internal parameter setting control unit 78 causes the internal parameter setting unit 43 to send the measured value of the internal parameter acquired from the measured value storage unit 77 to a specific video area corresponding to the distortion area 75 in the use video area 16. It is newly set as an internal parameter used for distortion correction processing for the video inside. At this time, the internal parameter setting control unit 78 continues the currently set internal parameter as an internal parameter used for distortion correction processing for the video area other than the specific video area in the use video area 16. It keeps setting.

このように構成されていることによって、内部パラメータ設定修正部70は、前記特定の映像領域に対応した内部パラメータの設定のみを修正することが可能となっている。   With this configuration, the internal parameter setting correction unit 70 can correct only the internal parameter setting corresponding to the specific video area.

そして、このような内部パラメータ設定修正部70によって内部パラメータの設定を修正した後に、作業面34上において車両周辺画像1を生成する場合には、図4に示したように、歪みのない(ただし、ずれはある)車両周辺画像1を生成することができ、このような車両周辺画像1を、外部パラメータの設定の修正に適正に用いることができる。   Then, when the vehicle peripheral image 1 is generated on the work surface 34 after the internal parameter setting correction unit 70 corrects the internal parameter setting, there is no distortion as shown in FIG. The vehicle surrounding image 1 can be generated, and such a vehicle surrounding image 1 can be appropriately used for correcting the setting of the external parameter.

そして、このような内部パラメータ設定修正部70による内部パラメータの設定の修正および外部パラメータ設定修正部51による外部パラメータの設定の修正を経て生成された車両周辺監視画像1は、図11に示すように、歪みもなく、また、各視点変換画像3,5,6,7同士が適切に繋がった良好な画像となる。   Then, the vehicle periphery monitoring image 1 generated through the correction of the internal parameter setting by the internal parameter setting correction unit 70 and the correction of the external parameter setting by the external parameter setting correction unit 51 is as shown in FIG. There is no distortion, and the viewpoint converted images 3, 5, 6, and 7 are appropriately connected to each other.

したがって、本実施形態によれば、格子パターン画像59が含まれた車両周辺画像1から歪み領域75を検出した上で、使用映像領域における歪み領域75に対応する特定の映像領域以外の映像領域については、現在設定されている内部パラメータ(第1の歪み補正値)に誤差が生じていないとみなして、新たな内部パラメータ(第2の歪み補正値)を算出して内部パラメータの設定の修正を行う映像領域を、特定の映像領域に限定することができる。   Therefore, according to the present embodiment, after detecting the distorted area 75 from the vehicle peripheral image 1 including the lattice pattern image 59, the video area other than the specific video area corresponding to the distorted area 75 in the used video area. Assumes that no error has occurred in the currently set internal parameter (first distortion correction value), and calculates a new internal parameter (second distortion correction value) to correct the setting of the internal parameter. The video area to be performed can be limited to a specific video area.

これにより、現在設定されている内部パラメータに誤差が生じている場合においても、内部パラメータの設定を低コストに修正した上で、内部パラメータの設定修正作業後における歪み補正処理を経て得られた車両周辺画像1に基づいて、外部パラメータの設定の修正を適切に行うことができる。   As a result, even when there is an error in the currently set internal parameter, the vehicle obtained through the distortion correction processing after the internal parameter setting correction work after correcting the internal parameter setting at low cost Based on the peripheral image 1, the external parameter setting can be appropriately corrected.

次に、本発明に係るカメラ取り付け位置・姿勢情報の設定修正方法の実施形態について、図12および図13を参照して説明する。   Next, an embodiment of the camera mounting position / posture information setting correction method according to the present invention will be described with reference to FIGS.

なお、本実施形態においては、カメラ取り付け位置・姿勢情報の設定修正方法として、前述した車両周辺監視装置32に適用される外部パラメータの設定修正方法について説明する。   In the present embodiment, an external parameter setting correction method applied to the above-described vehicle periphery monitoring device 32 will be described as a camera mounting position / posture information setting correction method.

なお、初期状態において、視点変換部46には、外部パラメータ設定部48により、各車載カメラ34,35,36,37の外部パラメータの設計値が設定されているものとする。また、歪み補正部42には、内部パラメータ設定部43により、各車載カメラ34,35,36,37の内部パラメータの設計値のみが設定されているものとする。このような場合の例としては、外部パラメータおよび内部パラメータの設定修正が一度も行われていない場合や、設定修正作業が過去に行われたが、外部パラメータおよび内部パラメータの設計値に誤差が生じていない状態が継続されている場合が挙げられる。   In the initial state, it is assumed that the external parameter setting unit 48 sets the design values of the external parameters of the in-vehicle cameras 34, 35, 36, and 37 in the viewpoint conversion unit 46. Further, it is assumed that only the design values of the internal parameters of the in-vehicle cameras 34, 35, 36, and 37 are set in the distortion correction unit 42 by the internal parameter setting unit 43. Examples of such cases include cases where external parameter and internal parameter settings have never been modified, or settings have been modified in the past, but there are errors in the design values of the external and internal parameters. The case where the state which has not been continued is mentioned.

そして、初期状態から、本実施形態においては、まず、図12のステップ1(ST1)に示すように、内部パラメータの設定修正作業を行う。   From the initial state, in the present embodiment, first, as shown in step 1 (ST1) of FIG.

ここで、このステップ1(ST1)の具体的な内容は、図13に示す通りである。   Here, the specific contents of Step 1 (ST1) are as shown in FIG.

すなわち、図13に示すように、内部パラメータの設定修正作業においては、まず、図13のステップ1A(ST1A)に示すように、図2に示したような自車両54の周辺に格子パターン53が設置された作業環境を設定してステップ1B(ST1B)に進む。なお、図2においては、縦ラインパターン57が自車両54の全長方向に平行とされており、また、格子パターン53と自車両との位置関係は、予め定められた所定の位置関係とされている。   That is, as shown in FIG. 13, in the internal parameter setting correction work, first, as shown in step 1A (ST1A) of FIG. 13, a lattice pattern 53 is formed around the host vehicle 54 as shown in FIG. The installed work environment is set, and the process proceeds to Step 1B (ST1B). In FIG. 2, the vertical line pattern 57 is parallel to the entire length direction of the host vehicle 54, and the positional relationship between the lattice pattern 53 and the host vehicle is a predetermined predetermined positional relationship. Yes.

次いで、ステップ1B(ST1B)においては、ステップ1A(ST1A)において設置された作業環境の下で、4台の車載カメラ34,35,36,37によって自車両の周辺を撮影した上で、映像切り出し部40により、各車載カメラ34,35,36,37の撮影映像から、各車載カメラ34,35,36,37に対応する格子パターン映像をそれぞれ切り出す。   Next, in step 1B (ST1B), the surroundings of the vehicle are photographed by the four in-vehicle cameras 34, 35, 36, and 37 in the work environment installed in step 1A (ST1A), and then the video is cut out. The unit 40 cuts out lattice pattern images corresponding to the in-vehicle cameras 34, 35, 36, and 37 from the captured images of the in-vehicle cameras 34, 35, 36, and 37, respectively.

次いで、ステップ1C(ST1C)においては、歪み補正制御部71の制御の下で、歪み補正部42により、ステップ1B(ST1B)において切り出された各格子パターン映像に対して、各格子パターン映像にそれぞれ対応する各車載カメラ34,35,36,37の内部パラメータの設計値を用いた内部パラメータの設定修正作業用の歪み補正処理をそれぞれ行う(図8参照)。   Next, in step 1C (ST1C), under the control of the distortion correction control unit 71, each lattice pattern image is converted to each lattice pattern image extracted in step 1B (ST1B) by the distortion correction unit 42. The distortion correction process for the internal parameter setting correction work using the design values of the internal parameters of the corresponding on-vehicle cameras 34, 35, 36, and 37 is performed (see FIG. 8).

次いで、ステップ1D(ST1D)においては、視点変換部46により、ステップ1C(ST1C)における設定修正作業用の歪み補正処理によってそれぞれ得られた各映像を、対応する各視点変換画像3,5,6,7へと視点変換するとともに、各視点変換画像3,5,6,7およびイラスト画像2を互いに合成することによって、格子パターン画像59が含まれた車両周辺画像1を生成する(図9参照)。   Next, in step 1D (ST1D), the viewpoint conversion unit 46 converts each video obtained by the distortion correction processing for setting correction work in step 1C (ST1C) to each corresponding viewpoint conversion image 3, 5, 6. , 7, and the viewpoint converted images 3, 5, 6, 7 and the illustration image 2 are combined with each other to generate the vehicle peripheral image 1 including the lattice pattern image 59 (see FIG. 9). ).

次いで、ステップ1E(ST1E)においては、歪み領域検出部72により、ステップ1D(ST1D)において生成された車両周辺画像1(視点変換画像3,5,6,7)における格子パターン画像59の形状と格子パターン53の正規の形状とを比較することによって、歪み領域75および歪み領域75における歪みの残存量を検出する。   Next, in step 1E (ST1E), the distortion region detector 72 calculates the shape of the grid pattern image 59 in the vehicle peripheral image 1 (viewpoint conversion images 3, 5, 6, 7) generated in step 1D (ST1D). By comparing with the regular shape of the lattice pattern 53, the strain region 75 and the strain remaining amount in the strain region 75 are detected.

次いで、ステップ1F(ST1F)においては、内部パラメータ算出部76により、ステップ1E(ST1E)において歪み領域75が検出されたか否かを判定し、検出された場合にはステップ1G(ST1G)に進み、検出されなかった場合には、ステップ1I(ST1I)に進む。   Next, in step 1F (ST1F), the internal parameter calculation unit 76 determines whether or not the distortion region 75 is detected in step 1E (ST1E). If detected, the process proceeds to step 1G (ST1G). If not detected, the process proceeds to step 1I (ST1I).

ステップ1G(ST1G)においては、内部パラメータ算出部76によって、使用映像領域16のうちの、歪み領域75に設定修正作業用の歪み補正処理前において対応する特定の映像領域に関する内部パラメータの実測値(新たな内部パラメータ)を算出してステップ1H(ST1H)に進む。   In step 1G (ST1G), the internal parameter calculation unit 76 causes the internal parameter calculation unit 76 to measure the internal parameter actual value (in relation to a specific video area corresponding to the distortion area 75 before the distortion correction processing for setting correction work). A new internal parameter) is calculated, and the process proceeds to Step 1H (ST1H).

一方、ステップ1I(ST1I)においては、内部パラメータの実測値の算出は行わずにステップ1J(ST1J)に進む。   On the other hand, in step 1I (ST1I), the process proceeds to step 1J (ST1J) without calculating the measured value of the internal parameter.

次いで、ステップ1H(ST1H)においては、内部パラメータ設定制御部78の制御の下で、内部パラメータ設定部43により、ステップ1G(ST1G)において算出された内部パラメータの実測値を、使用映像領域16のうちの歪み領域75に対応する特定の映像領域内の映像に対する歪み補正処理に用いられる内部パラメータとして新たに設定して処理を終了する。このとき、使用映像領域16のうちの前記特定の映像領域以外の映像領域については、現在設定されている内部パラメータの設計値を引き続き歪み補正処理に用いられる内部パラメータとして設定させ続ける。   Next, in step 1H (ST1H), under the control of the internal parameter setting control unit 78, the internal parameter setting unit 43 calculates the actual value of the internal parameter calculated in step 1G (ST1G) in the use video area 16. A new internal parameter used for distortion correction processing for a video in a specific video area corresponding to the distortion area 75 is newly set, and the process ends. At this time, for the video areas other than the specific video area in the used video area 16, the design value of the currently set internal parameter is continuously set as the internal parameter used for the distortion correction processing.

一方、ステップ1J(ST1J)においては、内部パラメータの設定修正は行わず、全使用映像領域16について、内部パラメータの設計値の設定を継続して処理を終了する。   On the other hand, in step 1J (ST1J), the internal parameter setting correction is not performed, and the setting of the internal parameter design values for all the used video areas 16 is continued and the process is terminated.

次いで、図12に戻って、ステップ2(ST2)においては、ステップ1A(ST1A)において設置された作業環境の下で、4台の車載カメラ34,35,36,37によって再び自車両の周辺を撮影した上で、映像切り出し部40により、各車載カメラ34,35,36,37の撮影映像から、各車載カメラ34,35,36,37に対応する格子パターン映像をそれぞれ切り出す。   Next, returning to FIG. 12, in step 2 (ST2), the surroundings of the host vehicle are again detected by the four in-vehicle cameras 34, 35, 36, and 37 under the work environment installed in step 1A (ST1A). After shooting, the image cutout unit 40 cuts out a lattice pattern image corresponding to each of the in-vehicle cameras 34, 35, 36, and 37 from each of the images of the in-vehicle cameras 34, 35, 36, and 37.

次いで、ステップ3(ST3)においては、歪み補正部42により、ステップ2(ST2)において切り出された各格子パターン映像に対して、各格子パターン映像にそれぞれ対応する現在設定されている内部パラメータを用いた歪み補正処理をそれぞれ行う。この歪み補正処理は、ステップ1(ST1)における設定修正作業後の内部パラメータを用いて行われたものであるので、映像の歪みを適切に補正することができる。   Next, in step 3 (ST3), the currently set internal parameters corresponding to the respective lattice pattern images are used for each lattice pattern image cut out in step 2 (ST2) by the distortion correction unit 42. Each distortion correction process is performed. Since this distortion correction processing is performed using the internal parameters after the setting correction work in Step 1 (ST1), the distortion of the video can be corrected appropriately.

次いで、ステップ4(ST4)においては、視点変換部46により、ステップ3(ST3)における歪み補正処理によってそれぞれ得られた各映像を、対応する各視点変換画像3,5,6,7へと視点変換するとともに、各視点変換画像3,5,6,7およびイラスト画像2を互いに合成することによって、格子パターン画像59が含まれた車両周辺画像1を生成する(図4参照)。この車両周辺画像1は、歪みは適切に除去されているが、外部パラメータの誤差の影響により、視点変換画像3,5,6,7同士の繋がりにずれがある場合がある。   Next, in step 4 (ST4), each video obtained by the distortion correction processing in step 3 (ST3) by the viewpoint conversion unit 46 is converted into the corresponding viewpoint-converted images 3, 5, 6, and 7, respectively. In addition to the conversion, the viewpoint conversion images 3, 5, 6, 7 and the illustration image 2 are combined with each other to generate the vehicle peripheral image 1 including the lattice pattern image 59 (see FIG. 4). In this vehicle peripheral image 1, distortion is appropriately removed, but there may be a shift in the connection between the viewpoint conversion images 3, 5, 6, and 7 due to the influence of the error of the external parameter.

次いで、ステップ5(ST5)においては、特徴点抽出部52により、ステップ4(ST4)において生成された格子パターン画像59を含む車両周辺画像1から、格子点60を抽出する(図5参照)。   Next, in step 5 (ST5), the feature point extraction unit 52 extracts lattice points 60 from the vehicle peripheral image 1 including the lattice pattern image 59 generated in step 4 (ST4) (see FIG. 5).

次いで、ステップ6(ST6)においては、誤差検出部62により、ステップ5(ST5)における格子点60の抽出結果と、格子パターンデータベース63に格納されたデータとに基づいて、繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bにおける格子点60の配列状態と、繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bにおける格子パターン画像59の正規の形状とを比較する。そして、この比較の結果に基づいて、繋ぎ目部分3a,3b,5a,5b,6a,6b,7a,7bにおける格子点60の位置の誤差を検出する。   Next, in step 6 (ST6), the error detection unit 62 performs joint portions 3a and 3b based on the extraction result of the grid point 60 in step 5 (ST5) and the data stored in the grid pattern database 63. , 5a, 5b, 6a, 6b, 7a, 7b, and the regular shape of the lattice pattern image 59 in the joint portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, 7b. Compare. Based on the result of this comparison, an error in the position of the lattice point 60 in the joint portions 3a, 3b, 5a, 5b, 6a, 6b, 7a, 7b is detected.

次いで、ステップ7(ST7)においては、第1補正量算出部64により、ステップ6(ST6)において誤差が検出されたか否かを判定し、検出された場合にはステップ8(ST8)に進み、検出されたなかった場合には、処理を終了する。ここで処理を終了する場合には、現在設定されている外部パラメータに誤差がないことになる。   Next, in step 7 (ST7), the first correction amount calculation unit 64 determines whether an error is detected in step 6 (ST6). If detected, the process proceeds to step 8 (ST8). If not detected, the process is terminated. When the process ends here, there is no error in the currently set external parameter.

次いで、ステップ8(ST8)においては、第1補正量算出部64により、第1の補正量を算出してステップ9(ST9)に進む。   Next, in step 8 (ST8), the first correction amount calculation unit 64 calculates the first correction amount and proceeds to step 9 (ST9).

次いで、ステップ9(ST9)においては、第2補正量算出部65により、第2の補正量を算出してステップ10(ST10)に進む。   Next, in step 9 (ST9), the second correction amount calculation unit 65 calculates a second correction amount and proceeds to step 10 (ST10).

次いで、ステップ10(ST10)においては、第1補正部67によって、ステップ8(ST8)において算出された第1の補正量に基づいて、外部パラメータ設定部48によって現在設定されている外部パラメータにおける繋ぎ目部分8,10,11,12に対応する外部パラメータ(例えば、設計値)を補正して、ステップ11(ST11)に進む。   Next, in step 10 (ST10), the connection in the external parameter currently set by the external parameter setting unit 48 is performed by the first correction unit 67 based on the first correction amount calculated in step 8 (ST8). The external parameters (for example, design values) corresponding to the eye portions 8, 10, 11, and 12 are corrected, and the process proceeds to step 11 (ST11).

次いで、ステップ11(ST11)においては、ステップ9(ST9)において算出された第2の補正量に基づいて、外部パラメータ設定部48によって現在設定されている外部パラメータにおける非繋ぎ目領域(5c等)に対応する外部パラメータ(例えば、設計値)を補正して、処理を完了する。   Next, in step 11 (ST11), based on the second correction amount calculated in step 9 (ST9), the non-joint region (5c, etc.) in the external parameter currently set by the external parameter setting unit 48 The external parameter (for example, design value) corresponding to is corrected, and the process is completed.

そして、このような外部パラメータの設定の修正が完了した後に、設定修正後の外部パラメータを用いて車両周辺画像1を表示する場合には、図11に示すように各視点変換画像3,5,6,7同士が適切に繋がった良好な画像を視認することができる。   Then, when the vehicle peripheral image 1 is displayed using the external parameter after the correction of the setting after the correction of the setting of the external parameter is completed, as shown in FIG. A good image in which 6 and 7 are appropriately connected can be visually recognized.

以上述べたように、本実施形態によれば、外部パラメータ設定修正部51により、外部パラメータの設定の修正(例えば、外部パラメータの設計値から補正後の外部パラメータへの修正)を、格子パターン画像59が含まれた適切な歪み補正処理後の車両周辺画像1に基づいて行うことができ、この際に、繋ぎ目部分については、誤差検出部62によって検出された格子点60の位置の誤差を解消する補正によって適切な外部パラメータを実測する一方で、視点変換画像における繋ぎ目部分以外の領域については、線形的な補間による補正で済ませることができる。   As described above, according to the present embodiment, the external parameter setting correction unit 51 corrects the external parameter setting (for example, correction from the design value of the external parameter to the corrected external parameter) by the lattice pattern image. 59, which is based on the vehicle peripheral image 1 after the appropriate distortion correction processing, and the error of the position of the grid point 60 detected by the error detection unit 62 for the joint portion. While an appropriate external parameter is actually measured by the correction to be eliminated, the region other than the joint portion in the viewpoint conversion image can be corrected by linear interpolation.

この結果、視点変換画像同士のずれが少ない視認性に優れた車両周辺画像を低コストで表示することができる。   As a result, it is possible to display a vehicle peripheral image with excellent visibility with little shift between viewpoint-converted images at a low cost.

なお、本発明は、前述した実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。   In addition, this invention is not limited to embodiment mentioned above, A various change is possible as needed.

例えば、前述した実施形態においては、歪み領域75の検出の際に、車両周辺画像1(視点変換画像3,5,6,7)上の格子パターンの形状と、格子パターンの正規の形状とを比較するようになっているが、本発明は、このような構成に限定されるものではなく、例えば、内部パラメータの設定修正作業用の歪み補正処理によって得られた映像上の格子パターンの形状と、格子パターンの正規の形状とを比較した上で、当該映像上における歪みが残存している領域を、歪み領域として検出するようにしてもよい。   For example, in the above-described embodiment, when the distortion region 75 is detected, the shape of the lattice pattern on the vehicle peripheral image 1 (viewpoint conversion images 3, 5, 6, and 7) and the normal shape of the lattice pattern are determined. Although the comparison is made, the present invention is not limited to such a configuration. For example, the shape of the lattice pattern on the image obtained by the distortion correction processing for the internal parameter setting correction work Then, after comparing with the regular shape of the lattice pattern, an area where distortion remains on the video may be detected as a distortion area.

また、格子パターンに限定される必要はなく、特徴点として既知の形状を捉えることのできるパターン、例えば、市松模様などを利用することも可能である。市松模様の場合には、市松模様の黒枡と白枡との各頂点部分(黒枡の頂点と白枡の頂点とが一致する場合も含む)を特徴点とすることとなる。   Moreover, it is not necessary to be limited to the lattice pattern, and it is also possible to use a pattern that can capture a known shape as a feature point, for example, a checkered pattern. In the case of the checkered pattern, each vertex portion of the checkered pattern of black and white birch (including the case where the black birch and white birch vertices coincide) is used as a feature point.

また、前述した実施形態においては、使用映像領域16内の映像に対する歪み補正処理と視点変換とを別工程において行うようになっていたが、歪み補正処理と視点変換とを例えば1つのマッピングテーブルを用いて一工程で(同時に)行うようにしてもよい。この場合には、歪み補正処理によって得られる映像が、得られるのと同時に視点変換される(視点変換された画像の状態として得られる)と考えればよい。この場合には、視点変換によって得られた画像上の第2の撮影対象物の形状が、歪み領域の検出に用いることになる。   In the above-described embodiment, the distortion correction process and the viewpoint conversion for the video in the use video area 16 are performed in separate processes. However, the distortion correction process and the viewpoint conversion are performed using, for example, one mapping table. And may be performed in one step (simultaneously). In this case, it can be considered that the video obtained by the distortion correction processing is subjected to viewpoint conversion at the same time as being obtained (obtained as a state of the image subjected to viewpoint conversion). In this case, the shape of the second object to be photographed on the image obtained by the viewpoint conversion is used for detecting the distortion region.

さらに、内部パラメータおよび外部パラメータのそれぞれの設定修正作業が行われる作業環境の条件としては、前述した実施形態における作業環境の条件に加えて、自車両が停止していることや、設定修正作業用を行う旨のユーザ操作がなされたこと等の他の条件を追加してもよい。   In addition to the work environment conditions in the above-described embodiment, the conditions of the work environment in which the internal parameter and external parameter setting correction work is performed include the fact that the host vehicle is stopped, and the setting correction work Other conditions such as a user operation for performing the above may be added.

本発明に係る車両周辺監視装置の実施形態を示すブロック図The block diagram which shows embodiment of the vehicle periphery monitoring apparatus which concerns on this invention 本発明に係る車両周辺監視装置の実施形態において、外部パラメータの設定修正作業を行うための作業環境の設定状態を示す図The figure which shows the setting state of the work environment for performing the setting correction work of an external parameter in embodiment of the vehicle periphery monitoring apparatus which concerns on this invention 本発明に係る車両周辺監視装置の実施形態において、外部パラメータの設定修正作業時における車載カメラの撮影映像を示す図The figure which shows the picked-up image of the vehicle-mounted camera at the time of the external parameter setting correction work in embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の実施形態において、設定されている外部パラメータに誤差がある場合における車両周辺画像の表示状態を示す図The figure which shows the display state of a vehicle periphery image in embodiment of the vehicle periphery monitoring apparatus which concerns on this invention when there exists an error in the set external parameter. 本発明に係る車両周辺監視装置の実施形態において、繋ぎ目部分および格子点を説明するための説明図Explanatory drawing for demonstrating a joint part and a lattice point in embodiment of the vehicle periphery monitoring apparatus which concerns on this invention 本発明に係る車両周辺監視装置の実施形態において、繋ぎ目部分における格子点の位置の誤差の検出状態を示す図The figure which shows the detection state of the position error of the lattice point in a joint part in embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の実施形態において、第2の補正量を算出するための線形的補間を説明するための説明図Explanatory drawing for demonstrating the linear interpolation for calculating 2nd correction amount in embodiment of the vehicle periphery monitoring apparatus which concerns on this invention 本発明に係る車両周辺監視装置の実施形態において、内部パラメータの設定修正作業用の歪み補正処理を示す図The figure which shows the distortion correction process for setting correction work of an internal parameter in embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の実施形態において、内部パラメータの設定修正作業用の歪み補正処理および視点変換を経て生成された車両周辺監視画像を示す図The figure which shows the vehicle periphery monitoring image produced | generated through the distortion correction process for internal parameter setting correction work and viewpoint conversion in embodiment of the vehicle periphery monitoring apparatus which concerns on this invention 本発明に係る車両周辺監視装置の実施形態において、図9の車両周辺画像から抽出された格子点を模式的に示す図The figure which shows typically the lattice point extracted from the vehicle periphery image of FIG. 9 in embodiment of the vehicle periphery monitoring apparatus which concerns on this invention. 本発明に係る車両周辺監視装置の実施形態において、内部パラメータの設定修正作業をともなう外部パラメータの設定修正作業が行われた後の良好な車両周辺画像を示す図The figure which shows the favorable vehicle periphery image after the setting correction work of the external parameter with the internal parameter setting correction work in embodiment of the vehicle periphery monitoring apparatus which concerns on this invention is performed. 本発明に係るカメラ取り付け位置・姿勢情報の設定修正方法の実施形態を示すフローチャート6 is a flowchart showing an embodiment of a camera attachment position / posture information setting correction method according to the present invention. 本発明に係るカメラ取り付け位置・姿勢情報の設定修正方法の実施形態において、内部パラメータの設定修正作業を示すフローチャートThe flowchart which shows the setting correction work of an internal parameter in embodiment of the setting correction method of the camera attachment position and attitude | position information based on this invention 従来から採用されていた車両周辺画像の一例を示す図The figure which shows an example of the vehicle periphery image conventionally employ | adopted 車載カメラの撮影映像を示す図The figure which shows the photographing picture of the vehicle camera 車載カメラの内部パラメータを説明するための説明図Explanatory diagram for explaining the internal parameters of the in-vehicle camera 従来から外部パラメータの実測に用いられていたターゲットボードの一例を示す図The figure which shows an example of the target board conventionally used for the measurement of the external parameter 自車両の周辺へのターゲットボードの設置状態を示す図The figure which shows the installation state of the target board around the own vehicle ターゲットボードの撮影映像を示す図The figure which shows the photographing picture of the target board

符号の説明Explanation of symbols

1車両周辺画像
3前方視点変換画像
5左側方視点変換画像
6右側方視点変換画像
7後方視点変換画像
16使用映像領域
32車両周辺監視装置
34フロントカメラ
35左サイドカメラ
36右サイドカメラ
37バックカメラ
40映像切り出し部
42歪み補正部
43内部パラメータ設定部
46視点変換部
47ディスプレイ
48外部パラメータ設定部
51外部パラメータ設定修正部
52特徴点抽出部
53格子パターン
62誤差検出部
64第1補正量算出部
65第2補正量算出部
67第1補正部
68第2補正部
1 Vehicle peripheral image 3 Front viewpoint converted image 5 Left side viewpoint converted image 6 Right side viewpoint converted image 7 Rear viewpoint converted image 16 Used video area 32 Vehicle periphery monitoring device 34 Front camera 35 Left side camera 36 Right side camera 37 Back camera 40 Video cutout unit 42 Distortion correction unit 43 Internal parameter setting unit 46 View point conversion unit 47 Display 48 External parameter setting unit 51 External parameter setting correction unit 52 Feature point extraction unit 53 Grid pattern 62 Error detection unit 64 First correction amount calculation unit 65 2 correction amount calculation unit 67 first correction unit 68 second correction unit

Claims (16)

自車両における所定の位置に取り付けられた広角の視野を有する複数台の車載カメラを備え、各車載カメラによる前記自車両の周辺の撮影映像に基づいて、前記自車両の周辺を前記自車両の上方から見下ろしたような画像である車両周辺画像を生成して表示部に表示する車両周辺監視装置であって、
車両周辺監視装置本体は、
前記複数台の車載カメラのそれぞれの撮影映像から、前記車両周辺画像の生成に使用される各車載カメラごとの所定の使用映像領域内の映像をそれぞれ切り出す映像切り出し手段と、
この映像切り出し手段によって切り出された各車載カメラごとの前記使用映像領域内の映像に対して、設定されている各車載カメラごとの所定の歪み補正値を用いた各車載カメラごとの歪み補正処理をそれぞれ行う歪み補正手段と、
この歪み補正手段による前記歪み補正処理に用いられる各車載カメラごとの前記歪み補正値をそれぞれ設定する歪み補正値設定手段と、
前記歪み補正手段による各車載カメラごとの前記歪み補正処理によってそれぞれ得られる映像を、設定されている各車載カメラの取り付け位置・姿勢情報を用いて当該映像が示す領域を前記車両の上方の所定の視点から見たような画像である視点変換画像へとそれぞれ視点変換することによって、各車載カメラごとの前記視点変換画像が互いに繋ぎ合わされた前記車両周辺画像を生成する視点変換手段と、
この視点変換手段による前記視点変換に用いられる前記各車載カメラの取り付け位置・姿勢情報を設定する取り付け位置・姿勢情報設定手段と、
この取り付け位置・姿勢情報設定手段による前記取り付け位置・姿勢情報の設定を修正可能とされた取り付け位置・姿勢情報設定修正手段と
を備えており、
前記取り付け位置・姿勢情報設定修正手段は、
直線状に配列された複数の特徴点を抽出可能とされた既知の形状を有する第1の撮影対象物が、前記自車両の周辺における所定の位置に設置された作業環境の下で、前記第1の撮影対象物が映し込まれた各車載カメラの撮影映像に基づいて、前記第1の撮影対象物の画像がそれぞれ含まれた各車載カメラごとの前記視点変換画像が繋ぎ合わされた車両周辺画像が生成された後に、前記第1の撮影対象物の画像から前記特徴点を抽出する特徴点抽出手段と、
この特徴点抽出手段の抽出結果に基づいて、任意の1個の視点変換画像についての他の視点変換画像との繋ぎ目部分における前記特徴点の配列状態と、前記繋ぎ目部分における前記第1の撮影対象物の正規の形状とを比較することによって、前記繋ぎ目部分における前記特徴点の位置の誤差を検出する誤差検出手段と、
この誤差検出手段によって検出された前記誤差を解消することが可能な前記繋ぎ目部分に対応する第1の取り付け位置・姿勢情報の補正量を算出する第1の補正量算出手段と、
前記視点変換画像における前記特徴点の正規の配列方向に間隔を設けるように形成された一対の前記繋ぎ目部分のそれぞれについての前記第1の補正量算出手段の算出結果を用いた線形的な補間によって、当該視点変換画像における前記一対の前記繋ぎ目部分に挟まれた前記繋ぎ目部分以外の領域における前記特徴点の位置の誤差を解消することが可能な当該繋ぎ目部分以外の領域に対応する第2の取り付け位置・姿勢情報の補正量を算出する第2の補正量算出手段と、
前記第1の取り付け位置・姿勢情報の補正量に基づいて、前記取り付け位置・姿勢情報設定手段によって現在設定されている前記取り付け位置・姿勢情報における前記繋ぎ目部分に対応する情報を補正する第1の補正手段と、
前記第2の取り付け位置・姿勢情報の補正量に基づいて、前記取り付け位置・姿勢情報設定手段によって現在設定されている前記取り付け位置・姿勢情報における前記繋ぎ目部分以外の領域に対応する情報を補正する第2の補正手段と
を備えたことを特徴とする車両周辺監視装置。
A plurality of in-vehicle cameras having a wide-angle field of view attached to a predetermined position in the host vehicle, and based on the captured video of the periphery of the host vehicle by each in-vehicle camera, the periphery of the host vehicle is positioned above the host vehicle. A vehicle periphery monitoring device that generates a vehicle periphery image that is an image looked down from and displays it on a display unit,
The vehicle periphery monitoring device body
Video cutout means for cutting out a video in a predetermined use video area for each vehicle-mounted camera used for generating the vehicle peripheral image from each captured video of the plurality of vehicle-mounted cameras,
Distortion correction processing for each in-vehicle camera using a predetermined distortion correction value for each in-vehicle camera that has been set for the video in the use video area for each in-vehicle camera cut out by the image cutout means. Distortion correction means for each,
Distortion correction value setting means for setting the distortion correction value for each vehicle-mounted camera used in the distortion correction processing by the distortion correction means;
The image obtained by the distortion correction processing for each in-vehicle camera by the distortion correction means is set to a predetermined area above the vehicle by using the set mounting position / posture information of each in-vehicle camera. Viewpoint conversion means for generating the vehicle peripheral image in which the viewpoint conversion images for each in-vehicle camera are connected to each other by converting the viewpoint to a viewpoint conversion image that is an image as seen from the viewpoint;
Mounting position / posture information setting means for setting the mounting position / posture information of each on-vehicle camera used for the viewpoint conversion by the viewpoint conversion means;
Mounting position / posture information setting correcting means capable of correcting the setting of the mounting position / posture information by the mounting position / posture information setting means, and
The attachment position / posture information setting correction means includes:
Under a work environment in which a first photographing object having a known shape capable of extracting a plurality of feature points arranged in a straight line is installed at a predetermined position in the vicinity of the host vehicle, A vehicle peripheral image in which the viewpoint conversion images of the respective in-vehicle cameras each including the image of the first imaging object are connected based on the captured image of each in-vehicle camera in which the one imaging object is reflected Is generated, the feature point extracting means for extracting the feature point from the image of the first object to be photographed;
Based on the extraction result of the feature point extraction means, the arrangement state of the feature points at a joint portion with any other viewpoint conversion image for any one viewpoint conversion image, and the first portion at the joint portion. An error detection means for detecting an error in the position of the feature point in the joint portion by comparing with a regular shape of the photographing object;
First correction amount calculating means for calculating a correction amount of first attachment position / posture information corresponding to the joint portion capable of eliminating the error detected by the error detecting means;
Linear interpolation using the calculation result of the first correction amount calculation means for each of the pair of joint portions formed so as to provide an interval in the normal arrangement direction of the feature points in the viewpoint conversion image Corresponding to a region other than the joint portion that can eliminate an error in the position of the feature point in a region other than the joint portion sandwiched between the pair of joint portions in the viewpoint conversion image. Second correction amount calculation means for calculating a correction amount of the second attachment position / posture information;
Based on the correction amount of the first attachment position / posture information, first information for correcting the information corresponding to the joint portion in the attachment position / posture information currently set by the attachment position / posture information setting means is corrected. Correction means,
Based on the correction amount of the second attachment position / posture information, information corresponding to an area other than the joint portion in the attachment position / posture information currently set by the attachment position / posture information setting unit is corrected. A vehicle periphery monitoring device, comprising: a second correction means.
前記第1の撮影対象物は、前記自車両が載置されている平坦な作業面上における前記自車両の周辺に、そのパターン面が前記作業面に平行になるように設置された格子パターンとされ、前記特徴点は、前記格子パターンにおける格子点とされていること
を特徴とする請求項1に記載の車両周辺監視装置
The first object to be photographed is a lattice pattern disposed around the own vehicle on a flat work surface on which the own vehicle is placed so that a pattern surface thereof is parallel to the work surface. The vehicle periphery monitoring device according to claim 1, wherein the feature points are lattice points in the lattice pattern.
前記取り付け位置・姿勢情報設定手段によって現在設定されている前記取り付け位置・姿勢情報は、取り付け位置・姿勢情報の設計値とされていること
を特徴とする請求項1または請求項2に記載の車両周辺監視装置。
The vehicle according to claim 1 or 2, wherein the mounting position / posture information currently set by the mounting position / posture information setting means is a design value of the mounting position / posture information. Perimeter monitoring device.
前記取り付け位置・姿勢情報は、前記車載カメラの外部パラメータとされていること
を特徴とする請求項1乃至請求項3のいずれか1項に記載の車両周辺監視装置。
The vehicle periphery monitoring device according to any one of claims 1 to 3, wherein the attachment position / posture information is an external parameter of the in-vehicle camera.
前記歪み補正値設定手段による前記歪み補正値の設定を修正可能とされた歪み補正値設定修正手段を備え、
前記歪み補正値設定修正手段は、
既知の形状を有する第2の撮影対象物が前記自車両の周辺に設置された作業環境の下で、前記車載カメラの撮影映像から、前記第2の撮影対象物が映し込まれた前記使用映像領域内の映像が切り出された後に、前記歪み補正手段を制御することにより、前記歪み補正手段に、歪み補正値の設定修正作業用の歪み補正処理として、前記歪み補正値設定手段によって現在設定されている第1の歪み補正値を用いた当該使用映像領域内の映像に対する歪み補正処理を行わせる歪み補正制御手段と、
前記設定修正作業用の歪み補正処理によって得られる映像上、または、この映像に対する前記視点変換手段による前記視点変換によって得られた画像上における前記第2の撮影対象物の形状と、前記第2の撮影対象物の正規の形状とを比較することによって、前記設定修正作業用の歪み補正処理によって得られる映像、または、この映像に対する前記視点変換によって得られた画像から、当該歪み補正処理が正確に行われずに歪みが残存している当該映像内または当該画像内の領域である歪み領域を、この歪み領域における歪みの残存量とともに検出する歪み領域検出手段と、
この歪み領域検出手段によって検出された前記歪み領域における前記歪みを補正することが可能な追加補正量を、前記歪みの残存量に基づいて求めた上で、求められた前記追加補正量を前記第1の歪み補正値に加算することによって、第2の歪み補正値を算出する歪み補正値算出手段と、
前記歪み補正値設定手段を制御することにより、前記歪み補正値設定手段に、前記歪み補正値算出手段によって算出された前記第2の歪み補正値を、前記使用映像領域のうちの前記歪み領域に対応する特定の映像領域内の映像に対する前記歪み補正処理に用いられる前記歪み補正値として新たに設定させるとともに、前記使用映像領域のうちの前記特定の映像領域以外の映像領域については、前記第1の歪み補正値を引き続き前記歪み補正処理に用いられる前記歪み補正値として設定させ続ける設定制御手段と
を備えていることによって、前記特定の映像領域に対応した前記歪み補正値の設定のみを修正するように形成され、
前記取り付け位置・姿勢情報設定修正手段は、前記歪み補正値設定修正手段による前記歪み補正値の設定修正作業後における前記歪み補正処理を経て生成された車両周辺画像に基づいて、取り付け位置・姿勢情報の設定を修正するように形成されていること
を特徴とする請求項1乃至請求項4のいずれか1項に記載の車両周辺監視装置。
Distortion correction value setting correction means capable of correcting the distortion correction value setting by the distortion correction value setting means,
The distortion correction value setting correction means includes
The usage image in which the second imaging object is reflected from the imaging image of the in-vehicle camera in a work environment in which a second imaging object having a known shape is installed around the vehicle. After the image in the region is cut out, by controlling the distortion correction unit, the distortion correction value is currently set by the distortion correction value setting unit as a distortion correction process for setting and correcting the distortion correction value. Distortion correction control means for performing distortion correction processing on the video in the use video area using the first distortion correction value,
The shape of the second object to be photographed on the video obtained by the distortion correction processing for the setting correction work or on the image obtained by the viewpoint conversion by the viewpoint conversion means for the video, and the second By comparing with the normal shape of the object to be photographed, the distortion correction processing can be accurately performed from the image obtained by the distortion correction processing for the setting correction work or the image obtained by the viewpoint conversion for the video. A distortion area detecting means for detecting a distortion area that is an area in the video or the image in which distortion remains without being performed, together with a residual amount of distortion in the distortion area;
An additional correction amount capable of correcting the distortion in the distortion region detected by the distortion region detection means is obtained based on the remaining amount of distortion, and the obtained additional correction amount is the first correction amount. A distortion correction value calculating means for calculating a second distortion correction value by adding to the distortion correction value of 1;
By controlling the distortion correction value setting means, the distortion correction value setting means causes the second distortion correction value calculated by the distortion correction value calculation means to be stored in the distortion area of the used video area. The distortion correction value used for the distortion correction processing for the video in the corresponding specific video area is newly set, and the video area other than the specific video area in the used video area is the first video area. And a setting control means for continuing to set the distortion correction value as the distortion correction value used for the distortion correction processing, thereby correcting only the setting of the distortion correction value corresponding to the specific video area. Formed as
The attachment position / posture information setting / correcting means is attached position / posture information based on the vehicle peripheral image generated through the distortion correction processing after the distortion correction value setting / correcting work by the distortion correction value setting / correcting means. The vehicle periphery monitoring device according to any one of claims 1 to 4, wherein the vehicle periphery monitoring device is configured to correct the setting.
前記第2の撮影対象物は、前記第1の撮影対象物とされていること
を特徴とする請求項5に記載の車両周辺監視装置。
The vehicle periphery monitoring device according to claim 5, wherein the second imaging object is the first imaging object.
前記第1の歪み補正値は、歪み補正値の設計値とされていること
を特徴とする請求項1乃至請求項6のいずれか1項に記載の車両周辺監視装置。
The vehicle periphery monitoring device according to any one of claims 1 to 6, wherein the first distortion correction value is a design value of the distortion correction value.
前記歪み補正値は、前記車載カメラの内部パラメータとされていること
を特徴とする請求項1乃至請求項7のいずれか1項に記載の車両周辺監視装置。
The vehicle periphery monitoring apparatus according to any one of claims 1 to 7, wherein the distortion correction value is an internal parameter of the in-vehicle camera.
自車両における所定の位置に取り付けられた広角の視野を有する複数台の車載カメラによる前記自車両の周辺の撮影映像のそれぞれから、各車載カメラごとの所定の使用映像領域内の映像をそれぞれ切り出し、切り出された各車載カメラごとの前記使用映像領域内の映像に対して、設定されている各車載カメラごとの所定の歪み補正値を用いた各車載カメラごとの歪み補正処理をそれぞれ行い、各車載カメラごとの前記歪み補正処理によってそれぞれ得られる映像を、設定されている各車載カメラの取り付け位置・姿勢情報を用いて当該映像が示す領域を前記車両の上方の所定の視点から見たような画像である視点変換画像へとそれぞれ視点変換することによって、各車載カメラごとの前記視点変換画像が互いに繋ぎ合わされた前記自車両の周辺を前記自車両の上方から見下ろしたような画像である車両周辺画像を生成し、生成された前記車両周辺画像を表示部に表示する車両周辺監視装置において、前記視点変換に用いられる前記取り付け位置・姿勢情報の設定を修正するカメラ取り付け位置・姿勢情報の設定修正方法であって、
直線状に配列された複数の特徴点を抽出可能とされた既知の形状を有する第1の撮影対象物が、前記自車両の周辺における所定の位置に設置された作業環境を設定し、
この設定された作業環境の下で、前記第1の撮影対象物が映し込まれた各車載カメラの撮影映像に基づいて、前記第1の撮影対象物の画像がそれぞれ含まれた各車載カメラごとの前記視点変換画像が繋ぎ合わされた車両周辺画像を生成した後に、前記第1の撮影対象物の画像から前記特徴点を抽出し、
この特徴点の抽出結果に基づいて、任意の1個の視点変換画像についての他の視点変換画像との繋ぎ目部分における前記特徴点の配列状態と、前記繋ぎ目部分における前記第1の撮影対象物の正規の形状とを比較することによって、前記繋ぎ目部分における前記特徴点の位置の誤差を検出し、
この検出された前記誤差を解消することが可能な前記繋ぎ目部分に対応する第1の取り付け位置・姿勢情報の補正量を算出し、
前記視点変換画像における前記特徴点の正規の配列方向に間隔を設けるように形成された一対の前記繋ぎ目部分のそれぞれについての第1の取り付け位置・姿勢情報の算出結果を用いた線形的な補間によって、当該視点変換画像における前記一対の前記繋ぎ目部分に挟まれた前記繋ぎ目部分以外の領域における前記特徴点の位置の誤差を解消することが可能な当該繋ぎ目部分以外の領域に対応する第2の取り付け位置・姿勢情報の補正量を算出し、
前記第1の取り付け位置・姿勢情報の補正量に基づいて、現在設定されている前記取り付け位置・姿勢情報における前記繋ぎ目部分に対応する情報を補正し、
前記第2の取り付け位置・姿勢情報の補正量に基づいて、現在設定されている前記取り付け位置・姿勢情報における前記繋ぎ目部分以外の領域に対応する情報を補正すること
を特徴とするカメラ取り付け位置・姿勢情報の設定修正方法。
From each of the images taken around the vehicle by a plurality of in-vehicle cameras having a wide-angle field of view attached at a predetermined position in the own vehicle, each image in a predetermined use image area for each in-vehicle camera is cut out, Each in-vehicle camera performs distortion correction processing for each in-vehicle camera using a predetermined distortion correction value for each in-vehicle camera that has been set, with respect to the image in the use image area for each extracted in-vehicle camera. An image obtained by viewing the image obtained by the distortion correction processing for each camera from the predetermined viewpoint above the vehicle using the set mounting position / posture information of each in-vehicle camera. By converting the viewpoints into viewpoint conversion images, the viewpoint conversion images of the respective in-vehicle cameras are connected to each other. In the vehicle periphery monitoring device that generates a vehicle periphery image that is an image of a side looking down from above the host vehicle, and displays the generated vehicle periphery image on a display unit, the attachment position used for the viewpoint conversion A camera mounting position / posture information setting correction method for correcting posture information settings,
A first shooting object having a known shape capable of extracting a plurality of feature points arranged in a straight line sets a work environment installed at a predetermined position around the vehicle,
Under this set work environment, for each in-vehicle camera each containing an image of the first object to be photographed, based on a photographed image of each in-vehicle camera in which the first object to be photographed is reflected After generating the vehicle periphery image in which the viewpoint conversion images of the two are connected, the feature points are extracted from the image of the first photographing object,
Based on the extraction result of the feature points, the arrangement state of the feature points at a joint portion with any other viewpoint conversion image for any one viewpoint conversion image, and the first imaging target at the joint portion By comparing the regular shape of the object, an error in the position of the feature point in the joint portion is detected,
Calculating a correction amount of the first attachment position / posture information corresponding to the joint portion capable of eliminating the detected error;
Linear interpolation using the calculation result of the first attachment position / posture information for each of the pair of joint portions formed so as to provide an interval in the normal arrangement direction of the feature points in the viewpoint conversion image Corresponding to a region other than the joint portion that can eliminate an error in the position of the feature point in a region other than the joint portion sandwiched between the pair of joint portions in the viewpoint conversion image. Calculate the correction amount of the second mounting position / posture information,
Based on the correction amount of the first attachment position / posture information, the information corresponding to the joint portion in the currently set attachment position / posture information is corrected,
Based on the correction amount of the second attachment position / posture information, information corresponding to a region other than the joint portion in the currently set attachment position / posture information is corrected.・ Posture information setting correction method.
前記第1の撮影対象物として、前記車両が載置されている平坦な作業面上における前記車両の周辺に、そのパターン面が前記作業面に平行になるように設置された格子パターンを用いるとともに、前記特徴点として、前記格子パターンにおける格子点を用いること
を特徴とする請求項9に記載のカメラ取り付け位置・姿勢情報の設定修正方法。
As the first object to be photographed, a lattice pattern installed around the vehicle on a flat work surface on which the vehicle is placed so that its pattern surface is parallel to the work surface is used. The camera attachment position / posture information setting correction method according to claim 9, wherein a lattice point in the lattice pattern is used as the feature point.
前記現在設定されている前記取り付け位置・姿勢情報として、取り付け位置・姿勢情報の設計値を用いること
を特徴とする請求項9または請求項10に記載のカメラ取り付け位置・姿勢情報の設定修正方法。
11. The camera mounting position / posture information setting correction method according to claim 9, wherein a design value of the mounting position / posture information is used as the currently set mounting position / posture information.
前記取り付け位置・姿勢情報として、前記車載カメラの外部パラメータを用いること
を特徴とする請求項9乃至請求項11のいずれか1項に記載のカメラ取り付け位置・姿勢情報の設定修正方法。
The camera mounting position / posture information setting correction method according to claim 9, wherein external parameters of the in-vehicle camera are used as the mounting position / posture information.
既知の形状を有する第2の撮影対象物が前記自車両の周辺に設置された作業環境の下で、前記車載カメラの撮影映像から、前記第2の撮影対象物が映し込まれた前記使用映像領域内の映像が切り出された後に、歪み補正値の設定修正作業用の歪み補正処理として、現在設定されている第1の歪み補正値を用いた当該使用映像領域内の映像に対する歪み補正処理を行い、
前記設定修正作業用の歪み補正処理によって得られる映像上、または、この映像に対する前記視点変換によって得られた画像上における前記第2の撮影対象物の形状と、前記第2の撮影対象物の正規の形状とを比較することによって、前記設定修正作業用の歪み補正処理によって得られる映像、または、この映像に対する前記視点変換によって得られた画像から、当該歪み補正処理が正確に行われずに歪みが残存している当該映像内または当該画像内の領域である歪み領域を、この歪み領域における歪みの残存量とともに検出し、
検出された前記歪み領域における前記歪みを補正することが可能な追加補正量を、前記歪みの残存量に基づいて求めた上で、求められた前記追加補正量を前記第1の歪み補正値に加算することによって、第2の歪み補正値を算出し、
算出された前記第2の歪み補正値を、前記使用映像領域のうちの前記歪み領域に対応する特定の映像領域内の映像に対する前記歪み補正処理に用いられる前記歪み補正値として新たに設定するとともに、前記使用映像領域のうちの前記特定の映像領域以外の映像領域については、前記第1の歪み補正値を引き続き前記歪み補正処理に用いられる前記歪み補正値として設定し続けることによって、前記特定の映像領域に対応した前記歪み補正値の設定のみを修正し、
この修正が行われた後における前記歪み補正処理を経て生成された車両周辺画像に基づいて、取り付け位置・姿勢情報の設定を修正すること
を特徴とする請求項9乃至請求項12のいずれか1項に記載のカメラ取り付け位置・姿勢情報の設定修正方法。
The usage image in which the second imaging object is reflected from the imaging image of the in-vehicle camera in a work environment in which a second imaging object having a known shape is installed around the vehicle. After the image in the region is cut out, the distortion correction processing for the image in the video region in use using the first distortion correction value that is currently set is used as the distortion correction processing for setting and correcting the distortion correction value. Done
The shape of the second object to be photographed on the image obtained by the distortion correction processing for the setting correction work or the image obtained by the viewpoint conversion on the image, and the normality of the second object to be photographed By comparing with the shape of the image, the distortion correction processing is not accurately performed from the video obtained by the distortion correction processing for the setting correction work or the image obtained by the viewpoint conversion on the video. Detect the distortion area that is the area in the video or the image that remains, along with the remaining amount of distortion in the distortion area,
An additional correction amount capable of correcting the distortion in the detected distortion region is obtained based on the remaining amount of distortion, and the obtained additional correction amount is used as the first distortion correction value. By calculating the second distortion correction value by adding,
The calculated second distortion correction value is newly set as the distortion correction value used in the distortion correction processing for the video in a specific video area corresponding to the distortion area of the used video area. For the video area other than the specific video area in the use video area, the first distortion correction value is continuously set as the distortion correction value used for the distortion correction processing, thereby the specific video area. Only correct the distortion correction value setting corresponding to the video area,
The setting of the attachment position / posture information is corrected based on the vehicle peripheral image generated through the distortion correction processing after the correction is performed. The camera mounting position / posture information setting correction method according to the item.
前記第2の撮影対象物として、前記第1の撮影対象物を用いること
を特徴とする請求項13に記載のカメラ取り付け位置・姿勢情報の設定修正方法。
The camera mounting position / posture information setting correction method according to claim 13, wherein the first imaging object is used as the second imaging object.
前記第1の歪み補正値として、歪み補正値の設計値を用いること
を特徴とする請求項9乃至請求項14のいずれか1項に記載のカメラ取り付け位置・姿勢情報の設定修正方法。
The camera attachment position / posture information setting correction method according to any one of claims 9 to 14, wherein a design value of a distortion correction value is used as the first distortion correction value.
前記歪み補正値として、前記車載カメラの内部パラメータを用いること
を特徴とする請求項9乃至請求項15のいずれか1項に記載のカメラ取り付け位置・姿勢情報の設定修正方法。
The camera mounting position / posture information setting correction method according to any one of claims 9 to 15, wherein an internal parameter of the in-vehicle camera is used as the distortion correction value.
JP2008112549A 2008-04-23 2008-04-23 Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto Expired - Fee Related JP5173551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008112549A JP5173551B2 (en) 2008-04-23 2008-04-23 Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008112549A JP5173551B2 (en) 2008-04-23 2008-04-23 Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto

Publications (2)

Publication Number Publication Date
JP2009267602A true JP2009267602A (en) 2009-11-12
JP5173551B2 JP5173551B2 (en) 2013-04-03

Family

ID=41392927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008112549A Expired - Fee Related JP5173551B2 (en) 2008-04-23 2008-04-23 Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto

Country Status (1)

Country Link
JP (1) JP5173551B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010251938A (en) * 2009-04-14 2010-11-04 Denso Corp Vehicle circumference photographing display system
WO2011093604A2 (en) * 2010-01-28 2011-08-04 팅크웨어(주) Vehicle navigation and method for inducing normal black box position in navigation system
KR20140136810A (en) * 2013-05-21 2014-12-01 삼성전기주식회사 Image correction apparatus and method
US8947533B2 (en) 2010-01-22 2015-02-03 Fujitsu Ten Limited Parameter determining device, parameter determining system, parameter determining method, and recording medium
CN111693254A (en) * 2019-03-12 2020-09-22 纬创资通股份有限公司 Vehicle-mounted lens offset detection method and vehicle-mounted lens offset detection system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020105499A1 (en) 2018-11-20 2020-05-28 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and program
JPWO2023026626A1 (en) 2021-08-24 2023-03-02

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201021A (en) * 1995-01-23 1996-08-09 Mazda Motor Corp Calibration method
JP2001339716A (en) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd Device for monitoring around vehicle and its method
JP2002135765A (en) * 1998-07-31 2002-05-10 Matsushita Electric Ind Co Ltd Camera calibration instruction device and camera calibration device
JP2005217889A (en) * 2004-01-30 2005-08-11 Toyota Industries Corp Image positional relation correcting device, steering support device provided with image positional relation correcting device, and image positional relation correcting method
JP2007006175A (en) * 2005-06-24 2007-01-11 Nissan Motor Co Ltd Image generation device and method for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08201021A (en) * 1995-01-23 1996-08-09 Mazda Motor Corp Calibration method
JP2002135765A (en) * 1998-07-31 2002-05-10 Matsushita Electric Ind Co Ltd Camera calibration instruction device and camera calibration device
JP2001339716A (en) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd Device for monitoring around vehicle and its method
JP2005217889A (en) * 2004-01-30 2005-08-11 Toyota Industries Corp Image positional relation correcting device, steering support device provided with image positional relation correcting device, and image positional relation correcting method
JP2007006175A (en) * 2005-06-24 2007-01-11 Nissan Motor Co Ltd Image generation device and method for vehicle

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010251938A (en) * 2009-04-14 2010-11-04 Denso Corp Vehicle circumference photographing display system
US8243138B2 (en) 2009-04-14 2012-08-14 Denso Corporation Display system for shooting and displaying image around vehicle
US8947533B2 (en) 2010-01-22 2015-02-03 Fujitsu Ten Limited Parameter determining device, parameter determining system, parameter determining method, and recording medium
WO2011093604A2 (en) * 2010-01-28 2011-08-04 팅크웨어(주) Vehicle navigation and method for inducing normal black box position in navigation system
WO2011093604A3 (en) * 2010-01-28 2011-11-10 팅크웨어(주) Vehicle navigation and method for inducing normal black box position in navigation system
US9134132B2 (en) 2010-01-28 2015-09-15 Intellectual Discovery Co., Ltd. Vehicle navigation and method for inducing normal black box position in navigation system
KR20140136810A (en) * 2013-05-21 2014-12-01 삼성전기주식회사 Image correction apparatus and method
KR101973408B1 (en) * 2013-05-21 2019-04-29 삼성전기주식회사 Image correction apparatus and method
CN111693254A (en) * 2019-03-12 2020-09-22 纬创资通股份有限公司 Vehicle-mounted lens offset detection method and vehicle-mounted lens offset detection system
CN111693254B (en) * 2019-03-12 2022-09-20 纬创资通股份有限公司 Vehicle-mounted lens offset detection method and vehicle-mounted lens offset detection system

Also Published As

Publication number Publication date
JP5173551B2 (en) 2013-04-03

Similar Documents

Publication Publication Date Title
JP6058256B2 (en) In-vehicle camera attitude detection apparatus and method
JP5173551B2 (en) Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto
KR101892595B1 (en) The surroundview system camera automatic calibration-only extrinsic parameters
JP4690476B2 (en) Car camera calibration system
US8452568B2 (en) Method for calibrating cameras installed on vehicle
JP4164703B2 (en) Wide-field image input method and apparatus
JP4810953B2 (en) Blind spot image display device for vehicles
JP5173552B2 (en) Vehicle perimeter monitoring apparatus and distortion correction value setting correction method applied thereto
JP5523730B2 (en) In-vehicle peripheral image display device
JP2011182236A (en) Camera calibration apparatus
JP4857143B2 (en) Camera posture calculation target device, camera posture calculation method using the same, and image display method
US20140104424A1 (en) Imaging surface modeling for camera modeling and virtual view synthesis
EP2061234A1 (en) Imaging apparatus
JP2007261463A (en) Calibration system of vehicle-mounted camera
JP5081313B2 (en) Car camera calibration system
JP2013001366A (en) Parking support device and parking support method
JP2008131250A (en) Correcting device for on-board camera and production method for vehicle using same correcting device
JP5959311B2 (en) Data deriving apparatus and data deriving method
US9162621B2 (en) Parking support apparatus
JP6151535B2 (en) Parameter acquisition apparatus, parameter acquisition method and program
CN113691788A (en) Projection method of projector system
JP2008085710A (en) Driving support system
JP2012003604A (en) Mobile body detector and mobile body detection method
JP4679293B2 (en) In-vehicle panoramic camera system
JP5405809B2 (en) Vehicle periphery monitoring device and camera position / posture determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110404

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121227

R150 Certificate of patent or registration of utility model

Ref document number: 5173551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees