JP5455124B2 - Camera posture parameter estimation device - Google Patents

Camera posture parameter estimation device Download PDF

Info

Publication number
JP5455124B2
JP5455124B2 JP2010084819A JP2010084819A JP5455124B2 JP 5455124 B2 JP5455124 B2 JP 5455124B2 JP 2010084819 A JP2010084819 A JP 2010084819A JP 2010084819 A JP2010084819 A JP 2010084819A JP 5455124 B2 JP5455124 B2 JP 5455124B2
Authority
JP
Japan
Prior art keywords
wide
camera
angle
image
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010084819A
Other languages
Japanese (ja)
Other versions
JP2011215063A (en
Inventor
仕剛 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tottori University
Original Assignee
Tottori University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tottori University filed Critical Tottori University
Priority to JP2010084819A priority Critical patent/JP5455124B2/en
Publication of JP2011215063A publication Critical patent/JP2011215063A/en
Application granted granted Critical
Publication of JP5455124B2 publication Critical patent/JP5455124B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、広角カメラの姿勢パラメータ推定技術に関する。   The present invention relates to a posture parameter estimation technique for a wide-angle camera.

近年、運転操作の安全性を高めることを目的として、魚眼カメラ等のような広角レンズを用いた複数のカメラを搭載し、車両の周囲を死角なくモニタリングするカメラシステムを搭載する車両が存在する。このようなカメラシステムは、車両の複数箇所に設置された各カメラによって撮影された画像を用いて、車両の周辺画像を生成し、生成された画像を表示装置に表示させる。表示装置に表示される周辺画像を見ることにより、運転者は、容易かつ安全に運転操作をすることができる。   In recent years, for the purpose of improving the safety of driving operations, there are vehicles equipped with a camera system equipped with a plurality of cameras using wide-angle lenses such as fish-eye cameras and the like and monitoring the surroundings of the vehicle without blind spots. . Such a camera system generates a surrounding image of the vehicle using images taken by each camera installed at a plurality of locations of the vehicle, and displays the generated image on a display device. By viewing the peripheral image displayed on the display device, the driver can easily and safely drive the vehicle.

車両内部の表示装置の表示領域は大きさに制限があるため、各カメラで撮影された複数の画像から生成される周辺画像を運転者にとって見易く瞬時に把握可能に表示させることは重要である。このような課題を解決する手法が例えば以下の特許文献1により提案されている。   Since the display area of the display device inside the vehicle is limited in size, it is important to display a peripheral image generated from a plurality of images photographed by each camera so that the driver can easily see and instantly understand. For example, Patent Document 1 below proposes a method for solving such a problem.

また、上述のようなカメラシステムにおいて、車両の周辺画像として、車両を上空から見下ろしたように描いたトップビュー(以降、鳥瞰図とも表記する)を生成するシステムが存在する。鳥瞰図によれば、運転者は、死角なく、車両の周囲の状況を瞬時に把握することができる。   In addition, in the camera system as described above, there is a system that generates a top view (hereinafter also referred to as a bird's-eye view) depicting a vehicle as viewed from above, as a surrounding image of the vehicle. According to the bird's-eye view, the driver can instantly grasp the situation around the vehicle without blind spots.

しかしながら、複数の魚眼カメラを持つカメラシステムにおいて鳥瞰図を生成するためには、予め、各魚眼カメラをそれぞれ校正する必要がある。   However, in order to generate a bird's eye view in a camera system having a plurality of fisheye cameras, it is necessary to calibrate each fisheye camera in advance.

校正の対象となり得るカメラのパラメータは、一般的には、内部パラメータ及び外部パラメータに区別される。内部パラメータには、主点(principal point)、焦点距離(focal length)、レンズ歪み(lens distortion)等が含まれる。このような内部パラメータは、カメラの環境で変化しないため、予め測定され製造プロセス等において設定される。   Camera parameters that can be calibrated are generally classified into internal parameters and external parameters. Internal parameters include principal point, focal length, lens distortion, and the like. Such internal parameters do not change in the camera environment, and are measured in advance and set in a manufacturing process or the like.

一方、外部パラメータはワールド座標系(world coordinate system)に対するカメラ
の方向(orientation)と位置(position)であり、カメラ姿勢(pose)パラメータとも
呼ばれる。このようなカメラ姿勢パラメータを校正するための手法は各種提案されている。例えば、車のボンネット(hood)上に置かれた複数のマーカを用いて自動車のアプリケーションにおけるステレオビジョンシステムを較正する手法が提案されている(下記非特許文献1参照)。また、車両の前の地面に置かれた複数の円パターンを用いることにより外部パラメータを校正することが提案されている(下記非特許文献2参照)。更に、車載カメラで検出された平行の車線マーキングを用いることにより前方カメラの方向を校正する方法が提案されている(下記非特許文献3参照)。
On the other hand, the external parameters are the orientation and position of the camera with respect to the world coordinate system and are also called camera pose parameters. Various methods for calibrating such camera posture parameters have been proposed. For example, a technique for calibrating a stereo vision system in an automobile application using a plurality of markers placed on a hood of a car has been proposed (see Non-Patent Document 1 below). Further, it has been proposed to calibrate external parameters by using a plurality of circular patterns placed on the ground in front of the vehicle (see Non-Patent Document 2 below). Furthermore, a method for calibrating the direction of the front camera by using parallel lane markings detected by an in-vehicle camera has been proposed (see Non-Patent Document 3 below).

特開2009−206747号公報JP 2009-206747 A

A. Broggi, M. Bertozzi and A. Fascioli, “Self-calibration of a stereo system for automotive applications”, Proc. of IEEE conference on Robotics and Automation, pp.3698-3703, 2001A. Broggi, M. Bertozzi and A. Fascioli, “Self-calibration of a stereo system for automotive applications”, Proc. Of IEEE conference on Robotics and Automation, pp.3698-3703, 2001 S. Hold, C. Nunn, A. Kummert, and S. Muller-Schnerders, “Effi-cient and robust extrinsic camera calibration procedure for lane departure warning”, Proc. of Intelligent Vehicle Symposium, pp.382-387, 2009S. Hold, C. Nunn, A. Kummert, and S. Muller-Schnerders, “Effi-cient and robust extrinsic camera calibration procedure for lane departure warning”, Proc. Of Intelligent Vehicle Symposium, pp.382-387, 2009 A. Catala-Part, J. Rataj and R. Reulke, “Self-calibration system for the orientation of a vehicle camera”, ISPR Commission V Sympo-sium on Image Engineering and Vision Metrology, pp.68-73, 2006A. Catala-Part, J. Rataj and R. Reulke, “Self-calibration system for the orientation of a vehicle camera”, ISPR Commission V Sympo-sium on Image Engineering and Vision Metrology, pp.68-73, 2006

しかしながら、上述のような従来のカメラ較正方法は、従来のピンホールカメラモデルに基づいた限定された視野(FOV(Field Of View))の一般的なカメラに対して適用される方法であり、全方向カメラや魚眼カメラのような半球より広視野の広角カメラにそのまま適用することができない。   However, the conventional camera calibration method as described above is a method applied to a general camera with a limited field of view (FOV (Field Of View)) based on the conventional pinhole camera model. It cannot be directly applied to a wide-angle camera having a wider field of view than a hemisphere such as a direction camera or a fish-eye camera.

そこで、従来の広角カメラを用いた車載カメラシステムでは、図24に示されるように、地上の予め決められた正確な位置に設置された複数のマーカを用いてカメラの姿勢パラメータを校正する方法が採用されている。図24は、車両の後部に搭載された1つの広角カメラの姿勢パラメータを校正するための従来手法を示す図である。図24の例によれば、車両の幅方向の中心線上の車両後部から50センチメートル(cm)、1メートル(m)、2(m)の各位置にそれぞれ1つずつのマーカを設置し、更に、車両の両サイドの面と平行で車両幅間隔離された2つの線上の車両後部から1(m)の各位置に1つずつのマーカを設置する必要がある。   Therefore, in a vehicle-mounted camera system using a conventional wide-angle camera, as shown in FIG. 24, there is a method of calibrating camera posture parameters using a plurality of markers placed at predetermined accurate positions on the ground. It has been adopted. FIG. 24 is a diagram showing a conventional method for calibrating the attitude parameter of one wide-angle camera mounted on the rear part of the vehicle. According to the example of FIG. 24, one marker is installed at each position of 50 centimeters (cm), 1 meter (m), and 2 (m) from the rear of the vehicle on the center line in the width direction of the vehicle. Furthermore, it is necessary to install one marker at each position 1 (m) from the rear of the vehicle on two lines parallel to the surfaces on both sides of the vehicle and separated from each other by the vehicle width.

このように従来手法では、複数のマーカを準備しなければならず、かつ、予め決められた正確な位置に各マーカを配置しなければならないため、カメラの校正に多大なる負担がかかっていた。   As described above, in the conventional method, since a plurality of markers must be prepared and each marker must be arranged at a predetermined accurate position, a great burden is imposed on the calibration of the camera.

本発明の一態様に係る課題は、このような問題点に鑑み、広角カメラの姿勢パラメータを容易にかつ正確に推定する技術を実現することにある。   In view of such a problem, an object of one embodiment of the present invention is to realize a technique for easily and accurately estimating a posture parameter of a wide-angle camera.

本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第1の態様は、カメラ姿勢パラメータ推定装置に関する。第1の態様に係るカメラ姿勢パラメータ推定装置は、半球以上の視野を有する広角カメラにより得られる広角画像から、実空間における、相互に平行な少なくとも2つの第1直線及び第2直線と、第1直線及び第2直線と垂直な関係を有する1つの第3直線とから構成される特定パターンを形成し得る各線分をそれぞれ取得するパターン取得手段と、このパターン取得手段により取得された特定パターンを形成し得る各線分を用いて上記広角画像に対する2組の消失点ペアを決定する決定手段と、この決定手段で決定された2組の消失点ペアを用いて地面に対する広角カメラの姿勢パラメータを推定する推定手段と、を備える。   The first aspect relates to a camera posture parameter estimation device. The camera posture parameter estimation device according to the first aspect includes, from a wide-angle image obtained by a wide-angle camera having a field of view equal to or greater than a hemisphere, at least two first straight lines and second straight lines parallel to each other in real space; A pattern acquisition unit that acquires each line segment that can form a specific pattern composed of a straight line and a single third line that is perpendicular to the second line, and a specific pattern acquired by the pattern acquisition unit A determination unit that determines two vanishing point pairs for the wide-angle image using each possible line segment, and estimates a posture parameter of the wide-angle camera with respect to the ground using the two vanishing point pairs determined by the determination unit. And an estimation means.

第1の態様では、広角カメラから得られる広角画像から実空間における特定パターンに対応する各線分が取得され、この取得された各線分から広角画像に対する2組の消失点ペアが決定され、この2組の消失点ペアから広角カメラの姿勢パラメータが推定される。   In the first aspect, each line segment corresponding to a specific pattern in the real space is acquired from the wide-angle image obtained from the wide-angle camera, and two vanishing point pairs for the wide-angle image are determined from each acquired line segment. The attitude parameter of the wide-angle camera is estimated from the vanishing point pair.

従って、第1の態様によれば、当該広角カメラにより当該特定パターンが撮像されさえすれば、広角カメラの姿勢パラメータを容易にかつ正確に推定することができる。   Therefore, according to the first aspect, as long as the specific pattern is imaged by the wide-angle camera, the posture parameter of the wide-angle camera can be estimated easily and accurately.

当該特定パターンは、実空間における、相互に平行な少なくとも2つの第1直線及び第2直線と、第1直線及び第2直線と垂直な関係を有する1つの第3直線とから構成される。このような特定パターンは、駐車場の駐車ラインや建物の壁面のライン等のように一般的に実空間に存在するものが利用されればよいため、従来のようにカメラの校正に費やされる負担を大きく軽減させることができる。   The specific pattern includes at least two first straight lines and second straight lines parallel to each other in real space, and one third straight line having a relationship perpendicular to the first straight lines and the second straight lines. Such a specific pattern may be a pattern that is generally present in real space, such as a parking lot line of a parking lot or a wall surface of a building. Can be greatly reduced.

上記第1の態様において好ましくは、上記決定手段が、上記特定パターンに対応する各線分のうち第1直線に対応する線分と第2直線に対応する線分とを用いて、広角画像が広角カメラの内部パラメータを用いてマッピングされた球面画像に対する1組の消失点ペアを前記広角画像の1組の消失点ペアとして決定し、この決定された1つの消失点とその球面画像の中心とを結ぶ線を法線とする平面から1つの消失線を決定し、その平面と平行な関係となる第3直線のその球面画像への投影平面からもう1つの消失線を決定し、決定された2つの消失線の交点から更に1組の消失点ペアを決定するようにしてもよい。   Preferably, in the first aspect, the determination unit uses the line segment corresponding to the first straight line and the line segment corresponding to the second straight line among the line segments corresponding to the specific pattern to generate a wide angle image. One vanishing point pair for the spherical image mapped using the internal parameters of the camera is determined as one vanishing point pair of the wide-angle image, and the determined one vanishing point and the center of the spherical image are determined. One vanishing line is determined from a plane whose normal is the connecting line, and another vanishing line is determined from the projection plane onto the spherical image of the third straight line that is parallel to the plane. A further vanishing point pair may be determined from the intersection of two vanishing lines.

これにより、少ない情報で広角画像に対する2組の消失点ペアを決定することができ、正確に、カメラ姿勢パラメータを推定することができる。   Thereby, two vanishing point pairs for the wide-angle image can be determined with a small amount of information, and the camera posture parameters can be estimated accurately.

また、上記第1の態様において好ましくは、上記パターン取得手段が、第1直線及び第2直線、並びに、第1直線及び第2直線と垂直な関係を有す第3直線とは異なる第4直線から構成される他の特定パターンを形成し得る各線分を更にそれぞれ取得し、上記決定手段が、第4直線を用いて第3直線と同様に新たな1組の消失点ペアを決定し、この新たに決定された1組の消失点ペアと、第3直線を用いて決定された1組の消失点ペアとの平均により1組の消失点ペアを決定するようにしてもよい。   Preferably, in the first aspect, the pattern acquisition means is a fourth straight line different from the first straight line and the second straight line, and a third straight line having a relationship perpendicular to the first straight line and the second straight line. Further, each line segment that can form another specific pattern composed of the above is obtained, and the determining means determines a new pair of vanishing points using the fourth straight line in the same manner as the third straight line. One vanishing point pair may be determined by averaging the newly determined one vanishing point pair and the one vanishing point pair determined using the third straight line.

このようにすれば、一層正確に2組の消失点ペアを決定することができる。   In this way, two vanishing point pairs can be determined more accurately.

また、上記第1の態様において、複数の広角カメラを対象に各広角カメラの姿勢パラメータを推定することも可能である。この場合、上記パターン取得手段が、複数の広角カメラから得られる各広角画像からそれぞれ、特定パターンに対応する各線分を取得し、上記決定手段が、2組の消失点ペアを前記各広角画像についてそれぞれ決定し、上記推定手段が、各広角画像に対する各2組の消失点ペアをそれぞれ用いて、各広角カメラの姿勢パラメータをそれぞれ推定する。そして、この態様においては、当該第1の態様に係るカメラ姿勢パラメータ推定装置が、複数の広角カメラのうち重複する視野領域を有する少なくとも2つの隣接広角カメラから得られる各広角画像内のその重複する視野領域に対応する画像領域を上記推定手段により推定されたその隣接広角カメラの各姿勢パラメータを用いて特定し、この特定された各画像領域の画像情報を用いてその隣接広角カメラの各姿勢パラメータを補整する補整手段を更に備えるようにしてもよい。   In the first aspect, it is also possible to estimate the posture parameters of each wide-angle camera for a plurality of wide-angle cameras. In this case, the pattern acquisition unit acquires each line segment corresponding to the specific pattern from each wide-angle image obtained from a plurality of wide-angle cameras, and the determination unit selects two vanishing point pairs for each wide-angle image. The estimation means estimates the posture parameters of each wide-angle camera using each of the two vanishing point pairs for each wide-angle image. In this aspect, the camera posture parameter estimation apparatus according to the first aspect overlaps each other in a wide-angle image obtained from at least two adjacent wide-angle cameras having overlapping field areas among a plurality of wide-angle cameras. An image area corresponding to the visual field area is identified using each posture parameter of the adjacent wide-angle camera estimated by the estimation means, and each posture parameter of the adjacent wide-angle camera is identified using image information of each identified image area. You may make it further provide the correction means which corrects.

これによれば、複数の広角カメラに関する各姿勢パラメータが推定され、この推定された各姿勢パラメータが、重複する視野領域を有する少なくとも2つの隣接広角カメラの間の相対的情報により更に洗練される。よって、第1の態様によれば、複数の広角カメラの姿勢パラメータを正確に推定することが可能である。   According to this, each posture parameter regarding a plurality of wide-angle cameras is estimated, and each of these estimated posture parameters is further refined by relative information between at least two adjacent wide-angle cameras having overlapping visual field regions. Therefore, according to the first aspect, it is possible to accurately estimate the posture parameters of a plurality of wide-angle cameras.

また、この複数の広角カメラを対象とした態様において、上記補整手段が、特定された各画像領域の画像データ間の相関値が最大化される値となるように隣接広角カメラの各姿勢パラメータを補整するようにしてもよい。   Further, in the aspect targeting the plurality of wide-angle cameras, each of the posture parameters of the adjacent wide-angle cameras is set so that the correction means has a value that maximizes the correlation value between the image data of each identified image area. You may make it correct.

第2の態様は、複数の広角カメラと、上述のようなパラメータ推定装置と、各広角カメラから得られる各広角画像から画像データを生成する画像生成装置とを含むカメラシステムに関する。このカメラシステムでは、当該画像生成装置が、上述の第1の態様のような
パラメータ推定装置により推定された複数の広角カメラの各姿勢パラメータを用いて、複数の広角画像から前記複数の広角カメラが搭載された車両を中心とする鳥瞰図を示す画像データを生成する生成手段と、この生成手段により生成された画像データに応じた鳥瞰図を参照したユーザにより入力されるその鳥瞰図における車両の傾き情報を取得する傾き情報取得手段と、その傾き情報を複数の広角カメラの各姿勢パラメータに反映させる反映手段と、を備える。
A second aspect relates to a camera system including a plurality of wide-angle cameras, a parameter estimation device as described above, and an image generation device that generates image data from each wide-angle image obtained from each wide-angle camera. In this camera system, the image generation device uses the posture parameters of the plurality of wide-angle cameras estimated by the parameter estimation device as in the first aspect described above, and the plurality of wide-angle cameras are converted from a plurality of wide-angle images. Obtaining means for generating image data showing a bird's-eye view centered on the mounted vehicle and vehicle tilt information in the bird's-eye view inputted by the user with reference to the bird's-eye view corresponding to the image data generated by the generating means Tilt information obtaining means for reflecting the information, and reflecting means for reflecting the tilt information on the posture parameters of a plurality of wide-angle cameras.

第2の態様によれば、ユーザにより入力される傾き情報に基づいて車両の地面に対する傾きを複数の広角カメラの各姿勢パラメータに反映させることができ、一層適切な鳥瞰図を出力することができるようになり、車両の運転者に安全な運転操作を提供することができる。   According to the second aspect, the inclination of the vehicle with respect to the ground can be reflected on each posture parameter of the plurality of wide-angle cameras based on the inclination information input by the user, and a more appropriate bird's-eye view can be output. Thus, a safe driving operation can be provided to the driver of the vehicle.

なお、本発明の他の態様としては、以上の何れかの構成を実現するカメラ姿勢パラメータの推定方法であってもよいし、そのような方法を実行するプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体であってもよい。   As another aspect of the present invention, a camera posture parameter estimation method that realizes any one of the above-described configurations may be used, or a program that executes such a method may be used. It may also be a computer-readable storage medium that records various programs.

本発明の各態様によれば、広角カメラの姿勢パラメータを容易にかつ正確に校正する技術を提供することができる。   According to each aspect of the present invention, it is possible to provide a technique for easily and accurately calibrating attitude parameters of a wide-angle camera.

実施例1におけるパラメータ推定装置を含むカメラシステムの構成を示す模式図。1 is a schematic diagram illustrating a configuration of a camera system including a parameter estimation device in Embodiment 1. FIG. 実施例1におけるパラメータ推定装置が搭載される車両の上面図を示す模式図。The schematic diagram which shows the top view of the vehicle by which the parameter estimation apparatus in Example 1 is mounted. 実施例1における広角画像の例を示す図。FIG. 3 is a diagram illustrating an example of a wide-angle image in the first embodiment. 実施例1における出力画像(鳥瞰図)の例を示す図。FIG. 3 is a diagram illustrating an example of an output image (bird's eye view) according to the first embodiment. 画像平面とカメラレンズとの間の関連を示すモデルを示す図。The figure which shows the model which shows the relationship between an image plane and a camera lens. 球面画像及び球面投影を示す図。The figure which shows a spherical image and spherical projection. 直線Lの単位球面上への投影を示す図。The figure which shows the projection on the unit spherical surface of the straight line L. FIG. 線分の検出例を示す図。The figure which shows the example of detection of a line segment. 消失点決定部における消失点決定のアルゴリズムを示す図。The figure which shows the algorithm of vanishing point determination in a vanishing point determination part. 消失点決定部における消失点決定のアルゴリズムを示す図。The figure which shows the algorithm of vanishing point determination in a vanishing point determination part. 球面画像におけるHパターンと消失点との関係を示す図。The figure which shows the relationship between H pattern in a spherical image, and a vanishing point. 実施例1におけるパラメータ推定装置の動作例を示すフローチャート。3 is a flowchart illustrating an operation example of the parameter estimation device according to the first embodiment. 実施例2におけるパラメータ推定装置が搭載される車両の上面図を示す模式図を示す図。The figure which shows the schematic diagram which shows the top view of the vehicle by which the parameter estimation apparatus in Example 2 is mounted. 実施例2におけるパラメータ推定装置を含むカメラシステムの構成を示す模式図を示す図。FIG. 9 is a schematic diagram illustrating a configuration of a camera system including a parameter estimation device according to a second embodiment. 各車載カメラ7から得られる広角画像の例を示す図。The figure which shows the example of the wide angle image obtained from each vehicle-mounted camera. 実施例2における出力画像(鳥瞰図)の例を示す図。FIG. 10 is a diagram illustrating an example of an output image (bird's eye view) in the second embodiment. 各車載カメラから取得された広角画像からの線分検出の例を示す図。The figure which shows the example of a line segment detection from the wide-angle image acquired from each vehicle-mounted camera. 実施例2においてカメラ姿勢パラメータの補整の繰り返し回数に対し計算された相関値を示すグラフ。9 is a graph showing correlation values calculated with respect to the number of repetitions of camera posture parameter correction in the second embodiment. 実施例2におけるパラメータ推定装置の動作例を示すフローチャートである。6 is a flowchart illustrating an operation example of the parameter estimation device according to the second embodiment. パラメータ補整部により補整される前の姿勢パラメータにより生成された鳥瞰図の例を示す図。The figure which shows the example of the bird's-eye view produced | generated by the attitude | position parameter before being corrected by the parameter correction part. 実施例2におけるカメラシステムで出力される鳥瞰図の例を示す図。FIG. 10 is a diagram illustrating an example of a bird's eye view output by the camera system according to the second embodiment. 実施例2の変形例としてのカメラシステムの構成を示す模式図。FIG. 6 is a schematic diagram illustrating a configuration of a camera system as a modification of the second embodiment. 本変形例において微調整された姿勢パラメータを用いて生成された出力画像の例を示す図。The figure which shows the example of the output image produced | generated using the attitude | position parameter finely adjusted in this modification. 車両の後部に搭載された1つの広角カメラの姿勢パラメータを校正するための従来手法を示す図。The figure which shows the conventional method for calibrating the attitude | position parameter of one wide angle camera mounted in the rear part of a vehicle.

以下、本発明の一実施形態としてのパラメータ推定装置について具体例を挙げ説明する。実施形態としてのパラメータ推定装置は、車両に搭載され、その車両に設置された広角カメラの姿勢パラメータを推定する。なお、本実施形態におけるパラメータ推定装置は、搭載される車両の種類を限定するものではない。以下に挙げた各実施例はそれぞれ例示であり、本発明は以下の各実施例の構成に限定されない。   Hereinafter, a specific example of the parameter estimation apparatus as one embodiment of the present invention will be described. A parameter estimation device as an embodiment estimates a posture parameter of a wide-angle camera installed in a vehicle and installed in the vehicle. In addition, the parameter estimation apparatus in this embodiment does not limit the kind of vehicle mounted. Each Example given below is an illustration, respectively, and this invention is not limited to the structure of each following Example.

以下の各実施例では、駐車ラインが地面に付されている駐車場に本実施形態におけるパラメータ推定装置を搭載する車両が駐車している状態でカメラの姿勢パラメータが推定される例を示す。当該パラメータ推定装置によりパラメータ推定が行われる際には、当該車両が任意の駐車スペースに車両の進行方向と両サイドの駐車ラインとが略平行となるように駐車される。この略平行とは、完全な平行が好ましいが完全な平行でなくとも許容されることを意味する。以降、本実施形態におけるパラメータ推定装置によりパラメータ推定が行われる際の車両の姿勢を基本姿勢とも表記する。本実施形態におけるパラメータ推定装置は、基本姿勢で駐車される車両に設置されるカメラで撮影される駐車ラインを用いて車載カメラの姿勢パラメータを推定する。   In each of the following examples, an example is shown in which the posture parameter of the camera is estimated in a state where a vehicle equipped with the parameter estimation device in the present embodiment is parked in a parking lot where the parking line is attached to the ground. When parameter estimation is performed by the parameter estimation device, the vehicle is parked in an arbitrary parking space so that the traveling direction of the vehicle and the parking lines on both sides are substantially parallel. The term “substantially parallel” means that perfect parallelism is preferable, but it is acceptable even if not perfectly parallel. Hereinafter, the posture of the vehicle when parameter estimation is performed by the parameter estimation device in the present embodiment is also referred to as a basic posture. The parameter estimation apparatus according to the present embodiment estimates a posture parameter of an in-vehicle camera using a parking line photographed by a camera installed in a vehicle parked in a basic posture.

以下、実施形態としてのパラメータ推定装置の第1実施例について説明する。   Hereinafter, a first example of the parameter estimation apparatus as the embodiment will be described.

[システム構成]
図1は、実施例1におけるパラメータ推定装置を含むカメラシステムの構成を示す模式図である。図2は、実施例1におけるパラメータ推定装置が搭載される車両の上面図を示す模式図である。カメラシステム1は、図1に示されるように、車載カメラ7、実施例1におけるパラメータ推定装置10、周辺画像生成装置20、表示装置30等で構成される。カメラシステム1は、車両5に搭載され、車両5の周辺を映し出す画像(映像)を車両5の運転者に提供する。
[System configuration]
FIG. 1 is a schematic diagram illustrating a configuration of a camera system including a parameter estimation device according to the first embodiment. FIG. 2 is a schematic diagram illustrating a top view of a vehicle on which the parameter estimation device according to the first embodiment is mounted. As shown in FIG. 1, the camera system 1 includes an in-vehicle camera 7, a parameter estimation device 10 according to the first embodiment, a peripheral image generation device 20, a display device 30, and the like. The camera system 1 is mounted on the vehicle 5 and provides the driver of the vehicle 5 with an image (video) that shows the periphery of the vehicle 5.

車載カメラ7は、図2に示されるように、車両5の後方部に1つ設置される。車載カメラ7は、魚眼レンズ等のような半球以上の視野を有する広角レンズを有する広角カメラである。車載カメラ7は、少なくとも車両5の後部より後方の領域(図2で示す長鎖線)を視野領域とする。車載カメラ7で撮像された映像の信号は、周辺画像生成装置20へ送られる。なお、本発明は、車載カメラ7を設置する厳密な位置を限定するものではない。   As shown in FIG. 2, one in-vehicle camera 7 is installed in the rear part of the vehicle 5. The in-vehicle camera 7 is a wide-angle camera having a wide-angle lens having a field of hemisphere or more such as a fisheye lens. The vehicle-mounted camera 7 uses at least a region behind the rear portion of the vehicle 5 (a long chain line shown in FIG. 2) as a visual field region. A video signal captured by the in-vehicle camera 7 is sent to the peripheral image generation device 20. The present invention does not limit the exact position where the in-vehicle camera 7 is installed.

周辺画像生成装置20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力インタフェース等で構成され、例え
ば、ソフトウェア的又はハードウェア的な起動指示に応じて電力が投入され起動される。周辺画像生成装置20は、ROMに記録されたプログラムを実行することにより、以下のような処理を実行する。
The peripheral image generation device 20 is configured by a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output interface, and the like, for example, in response to a software or hardware activation instruction. Power is turned on and activated. The peripheral image generation apparatus 20 executes the following process by executing a program recorded in the ROM.

周辺画像生成装置20は、車載カメラ7から映像信号を受け、この映像信号から画像データを取得する。以降、車載カメラ7から得られる画像データを広角画像とも表記する。周辺画像生成装置20は、この広角画像を車載カメラ7の内部パラメータ及び外部パラメータを用いて変換することにより、車両5の周辺を映し出す画像データを生成する。この
画像データは、例えば、車載カメラ7の視野領域を車両5の上空から見下ろしたように見せる鳥瞰図として生成される。図3は、実施例1における広角画像の例を示す図であり、図4は、実施例1における出力画像(鳥瞰図)の例を示す図である。
The peripheral image generation device 20 receives a video signal from the in-vehicle camera 7 and acquires image data from this video signal. Hereinafter, the image data obtained from the in-vehicle camera 7 is also referred to as a wide-angle image. The peripheral image generation device 20 generates image data that reflects the periphery of the vehicle 5 by converting the wide-angle image using internal parameters and external parameters of the in-vehicle camera 7. This image data is generated, for example, as a bird's eye view showing the field of view of the in-vehicle camera 7 as if looking down from above the vehicle 5. FIG. 3 is a diagram illustrating an example of a wide-angle image in the first embodiment, and FIG. 4 is a diagram illustrating an example of an output image (bird's eye view) in the first embodiment.

車載カメラ7の内部パラメータは、製造時等に予め測定され、周辺画像生成装置20が読み出し可能なメモリに予め格納されている。一方で、外部パラメータ(姿勢パラメータ)は、その初期値が当該メモリに予め格納されており、任意のタイミングでパラメータ推定装置10により校正される。この任意のタイミングとは、例えば、電力投入開始時、ハードウェア的又はソフトウェア的な操作が行なわれた時などである。なお、本発明は、このような車載カメラ7の姿勢パラメータの校正タイミングを限定するものではない。   The internal parameters of the in-vehicle camera 7 are measured in advance at the time of manufacture or the like, and are stored in advance in a memory that can be read by the peripheral image generation device 20. On the other hand, initial values of external parameters (posture parameters) are stored in advance in the memory, and are calibrated by the parameter estimation device 10 at an arbitrary timing. The arbitrary timing is, for example, when power is started or when a hardware or software operation is performed. The present invention does not limit the calibration timing of the attitude parameter of the in-vehicle camera 7 as described above.

表示装置30は、周辺画像生成装置20により生成された画像データを受け、図4に示すような鳥瞰図をディスプレイ(表示面)に表示させる。運転者は、この表示装置30の表示面に映し出された車両後方の映像を参照することにより、死角及び見え難い車両後方の状況を正確に認識することができ、結果、安全な運転操作を行うことができる。   The display device 30 receives the image data generated by the peripheral image generation device 20 and displays a bird's eye view as shown in FIG. 4 on a display (display surface). The driver can accurately recognize the blind spot and the situation behind the vehicle which is difficult to see by referring to the image behind the vehicle displayed on the display surface of the display device 30, and as a result, performs a safe driving operation. be able to.

本発明は、周辺画像生成装置20のハードウェア構成及び画像データの変換手法を限定するものではないため、上述のように説明を簡略化している。また、図1では、パラメータ推定装置10と周辺画像生成装置20とは別々のハードウェアとして実現される例が示されるが、両者はそれぞれソフトウェアモジュールとして実現されるようにしてもよい。   Since the present invention does not limit the hardware configuration of the peripheral image generation apparatus 20 and the image data conversion method, the description is simplified as described above. 1 shows an example in which the parameter estimation device 10 and the peripheral image generation device 20 are realized as separate hardware, but both may be realized as software modules.

[装置構成]
パラメータ推定装置10は、特定パターン取得部11、消失点決定部12、パラメータ推定部13等を有する。これら各処理部はそれぞれ、ハードウェア回路として実現されてもよいし、ソフトウェアモジュールとして実現されてもよい。ソフトウェアモジュールとして実現される場合には、パラメータ推定装置10のCPUにおいてメモリに格納されるプログラムが実行されることにより実現される。なお、本発明は、このようなパラメータ推定装置10のハードウェア構成を限定するものではない。
[Device configuration]
The parameter estimation device 10 includes a specific pattern acquisition unit 11, a vanishing point determination unit 12, a parameter estimation unit 13, and the like. Each of these processing units may be realized as a hardware circuit or a software module. When realized as a software module, it is realized by executing a program stored in a memory in the CPU of the parameter estimation apparatus 10. Note that the present invention does not limit the hardware configuration of such a parameter estimation apparatus 10.

パラメータ推定装置10は、上述したような任意のタイミングで起動され、車載カメラ7の姿勢パラメータを推定し、この推定された姿勢パラメータにより周辺画像生成装置20に格納される姿勢パラメータを更新する。パラメータ推定装置10は、起動されると、車載カメラ7から映像信号を受ける。   The parameter estimation device 10 is activated at an arbitrary timing as described above, estimates the posture parameter of the in-vehicle camera 7, and updates the posture parameter stored in the peripheral image generation device 20 with the estimated posture parameter. The parameter estimation device 10 receives a video signal from the in-vehicle camera 7 when activated.

パラメータ推定装置10は、ピンホールカメラモデルでは半球以上の視野を持つ広角カメラで撮像された画像を扱うことができないため、車載カメラ7から取得される広角画像を球面カメラモデルを用いることにより処理する。つまり、パラメータ推定装置10は、広角画像を球面画像にマッピングする。   Since the pinhole camera model cannot handle an image captured by a wide-angle camera having a field of view larger than a hemisphere, the parameter estimation device 10 processes a wide-angle image acquired from the in-vehicle camera 7 by using a spherical camera model. . That is, the parameter estimation device 10 maps the wide-angle image to the spherical image.

図5は、画像平面とカメラレンズとの間の関連を示すモデルを示す図である。図5では、カメラ座標系における点P(X,Y,Z)の光線方向が球面座標(θ,φ)で示され、画像平面上の投影座標が(r,φ)で示される。例えば、一般的な魚眼レンズに関しては、以下のような射影タイプが利用される。 FIG. 5 is a diagram showing a model showing the relationship between the image plane and the camera lens. In FIG. 5, the ray direction of the point P (X, Y, Z) in the camera coordinate system is indicated by spherical coordinates (θ, φ), and the projected coordinates on the image plane are indicated by (r i , φ i ). For example, the following projection types are used for general fisheye lenses.

等距離射影(Equidistant Projection):r=fθ
直交射影(Orthogonal Projection):r=f sinθ
立体射影(Stereographic Projection):r=2f tan(θ/2)
等立体角射影(Equal Area Projection):r=2f sin(θ/2)
実際のカメラは物理的には理想的な投影モデルには従わない。光軸が画像中心を通らないかもしれない。また、1ピクセルの縦及び横のサイズが等しくならず、実レンズの半径
方向歪み(radial distortion)及び偏心歪み(decentering distortion)が存在するか
もしれない。そこで、以下の(式1)及び(式2)で示すようなカメラ歪みモデルが利用される。以下の(式1)及び(式2)におけるθ、φ、r、φは図5で示すとおりであり、半径方向歪み及び偏心歪みの各パラメータが(k,k,k,P,P)で示される。
Equidistant Projection: r i = fθ
Orthogonal Projection: r i = f sin θ
Stereographic Projection: r i = 2f tan (θ / 2)
Equal Area Projection: r i = 2f sin (θ / 2)
An actual camera does not physically follow an ideal projection model. The optical axis may not pass through the center of the image. In addition, the vertical and horizontal sizes of one pixel may not be equal, and there may be radial distortion and decentering distortion of the actual lens. Therefore, a camera distortion model as shown in the following (Expression 1) and (Expression 2) is used. In the following (Expression 1) and (Expression 2), θ, φ, r i , and φ i are as shown in FIG. 5, and parameters of radial strain and eccentric strain are (k 1 , k 3 , k 5 , P 1 , P 2 ).

Figure 0005455124
Figure 0005455124

光心(x,y)のシフトパラメータ、アスペクト比αが用いられることにより、画像平面上の投影座標(r,φ)は、入力された広角画像の直交座標系での射影点の座標である(x,y)にマッピングされる。従って、カメラ座標系における点P(X,Y,Z)と広角画像上の点(x,y)との対応関係は以下の(式3)のように示される。 By using the shift parameter of the optical center (x C , y C ) and the aspect ratio α, the projection coordinates (r i , φ i ) on the image plane are projected points in the orthogonal coordinate system of the input wide-angle image. Are mapped to (x f , y f ). Accordingly, the correspondence relationship between the point P (X, Y, Z) in the camera coordinate system and the point (x f , y f ) on the wide-angle image is expressed as (Equation 3) below.

Figure 0005455124
Figure 0005455124

(式3)により、広角画像における任意の点がカメラ内部パラメータを用いることにより単位球面画像にマッピングされる。このような空間点の球面画像への投影は球面投影と呼ばれる。図6は、球面画像及び球面投影を示す図である。   According to (Expression 3), an arbitrary point in the wide-angle image is mapped to the unit spherical image by using the camera internal parameter. Such projection of spatial points on a spherical image is called spherical projection. FIG. 6 is a diagram showing a spherical image and a spherical projection.

点P(X,Y,Z)の球面画像座標系に関する座標がM=[X Y Z]とすれば、単位球面画像における点Pの投影はm=[sinθcosφ sinθsinφ cosθ]として表わすことができる。これにより、球面画像座標系における座標Mと投影座標mとの関係はm=λM≒Mである。この関係は、mがスケール因子を除いてMと等しいことを意味する。 If the coordinates of the point P (X, Y, Z) with respect to the spherical image coordinate system are M C = [X Y Z] T , the projection of the point P in the unit spherical image is expressed as m = [sin θ cos φ sin θ sin φ cos θ] T. Can do. Thus, the relationship between the coordinates M C and projected coordinates m in the spherical image coordinate system is m = λM C M C. This relationship, m means that equal to M C except the scale factor.

このような球面モデルでは、図7に示すように、直線Lは単位球面上に大円の円弧lとして投影される。図7は、直線Lの単位球面上への投影を示す図である。図7に示すnは、直線Lの投影平面の単位法線ベクトルとされる。ここで、点pが円弧l上にあると仮定し、点pがp=[sinθcosφ sinθsinφ cosθ]と示され、単位法線ベクトルnがn=[a b c]と示されると、直線の投影平面の方程式は以下の(式4)のようになる。ここで、θ及びφは、球面座標系における極角及び方位角である。   In such a spherical model, as shown in FIG. 7, the straight line L is projected as a great circular arc l on the unit spherical surface. FIG. 7 is a diagram illustrating the projection of the straight line L onto the unit sphere. 7 is a unit normal vector of the projection plane of the straight line L. Here, assuming that the point p is on the circular arc l, if the point p is expressed as p = [sin θ cos φ sin θ sin φ cos θ] and the unit normal vector n is expressed as n = [a b c], a straight line projection The equation of the plane is as follows (Equation 4). Here, θ and φ are a polar angle and an azimuth angle in the spherical coordinate system.

Figure 0005455124
Figure 0005455124

ここで、同じ直線に属している点は同じ投影平面に存在することから、球面空間におけるハフ変換は、球面画像中の空間直線の投影点を用いることにより、空間直線の投影平面の法線ベクトルを決定するのに利用され得る。   Here, since the points belonging to the same straight line exist on the same projection plane, the Hough transform in the spherical space is performed by using the projection point of the spatial straight line in the spherical image, and the normal vector of the projection line of the spatial straight line. Can be used to determine

以下、上述のような球面カメラモデルを用いて処理するパラメータ推定装置10の各処理部について説明する。   Hereinafter, each processing unit of the parameter estimation apparatus 10 that performs processing using the spherical camera model as described above will be described.

特定パターン取得部11は、車載カメラ7から送られた映像信号を受信すると、この映像信号から広角画像を取得する。この広角画像には、図3に示すように複数の駐車ラインや駐車場のその他の風景が映し出されている。以降、車両5が基本姿勢で駐車されている場合における、車両5の進行方向と略平行な駐車ラインをサイドライン41と表記し、車両5の進行方向と略垂直な駐車ラインをリアライン42と表記する。なお、一般的な駐車場では、サイドライン41とリアライン42とは直行するように駐車ラインが引かれている。   When the specific pattern acquisition unit 11 receives the video signal transmitted from the in-vehicle camera 7, the specific pattern acquisition unit 11 acquires a wide-angle image from the video signal. In this wide-angle image, as shown in FIG. 3, a plurality of parking lines and other scenery of the parking lot are projected. Hereinafter, when the vehicle 5 is parked in the basic posture, a parking line substantially parallel to the traveling direction of the vehicle 5 is referred to as a side line 41, and a parking line substantially perpendicular to the traveling direction of the vehicle 5 is referred to as a rear line 42. write. In a general parking lot, the parking line is drawn so that the side line 41 and the rear line 42 are orthogonal.

特定パターン取得部11は、このような広角画像から実空間における特定のパターンに対応する線分を検出する。この特定のパターンは、少なくとも2本の平行な線分(以降、平行線群と表記する)及びこれらに垂直な1本の線分(以降、垂直線と表記する)から構成される。この特定のパターンは、以降、各線分の形状に基づいてHパターンと表記する。特定パターン取得部11は、広角画像を内部パラメータを用いることにより単位球面画像にマッピングし、上述したような球面カメラモデルに基づくアルゴリズムを用いて上述のような平行線群に対応する広角画像内の各線分及び垂直線に対応する広角画像内の線分を検出する。なお、広角画像から線分を検出する手法については周知な手法(例えば、特開2009−288885号公報参照)を用いればよいため、ここでは説明を簡略化する。   The specific pattern acquisition unit 11 detects a line segment corresponding to a specific pattern in real space from such a wide-angle image. This specific pattern is composed of at least two parallel line segments (hereinafter referred to as a parallel line group) and one line segment perpendicular thereto (hereinafter referred to as a vertical line). This specific pattern is hereinafter referred to as an H pattern based on the shape of each line segment. The specific pattern acquisition unit 11 maps the wide-angle image to the unit spherical image by using the internal parameters, and uses the algorithm based on the spherical camera model as described above, and uses the algorithm in the wide-angle image corresponding to the parallel line group as described above. A line segment in the wide-angle image corresponding to each line segment and vertical line is detected. Note that a well-known method (for example, see Japanese Patent Application Laid-Open No. 2009-288885) may be used as a method for detecting a line segment from a wide-angle image, and thus the description is simplified here.

特定パターン取得部11は、広角画像から複数のエッジ点を抽出し、各エッジ点について勾配方向(gradient direction)をそれぞれ計算する。この勾配方向とはエッジ点の輝度の勾配を示す。特定パターン取得部11は、算出された各勾配方向に基づいて、各エッジ点を2つのグループに分類する。1つのグループは、0度から180度までの勾配方向を持つエッジ点の集合であり、もう1つのグループは、残りの勾配方向を持つエッジ点の集合である。この分類処理により、例えば、広角画像に含まれる各駐車ラインの対向する各境界線がそれぞれ異なるグループに属することになる。   The specific pattern acquisition unit 11 extracts a plurality of edge points from the wide-angle image, and calculates a gradient direction for each edge point. This gradient direction indicates the gradient of the brightness of the edge point. The specific pattern acquisition unit 11 classifies the edge points into two groups based on the calculated gradient directions. One group is a set of edge points having gradient directions from 0 degrees to 180 degrees, and the other group is a set of edge points having remaining gradient directions. By this classification process, for example, the opposing boundary lines of the parking lines included in the wide-angle image belong to different groups.

特定パターン取得部11は、各グループに属するエッジ点の集合からそれぞれ線分を抽出する。この線分の抽出には上述したように例えばハフ変換技術が利用される。特定パターン取得部11は、ハフ変換技術を用いて空間直線に対応する球面画像上の大円を抽出する。図8は、線分の検出例を示す図である。図8の例によれば、サイドライン41から抽出された境界線の線分41A及び41Bがそれぞれ異なるグループに分類される。同様に、リアライン42から抽出された境界線の線分42A及び42Bがそれぞれ異なるグループに分類される。   The specific pattern acquisition unit 11 extracts line segments from a set of edge points belonging to each group. For example, the Hough transform technique is used for the extraction of the line segment as described above. The specific pattern acquisition unit 11 extracts a great circle on the spherical image corresponding to the spatial straight line using the Hough transform technique. FIG. 8 is a diagram illustrating an example of detecting a line segment. According to the example of FIG. 8, the line segments 41A and 41B of the boundary line extracted from the side line 41 are classified into different groups. Similarly, the line segments 42A and 42B extracted from the rear line 42 are classified into different groups.

特定パターン取得部11は、抽出された線分のうち車両5に近く広角画像の縦方向(図8の縦方向)に長い線分を当該平行線群に対応する線分として特定し、車両5に近く横方
向(図8の横方向)に長い線分を当該垂直線に対応する線分として特定する。このとき、特定パターン取得部11は、口角画像の縦方向に長い線分については上記1つのグループに関し2本以上特定する。即ち、2本以上の各サイドラインからそれぞれ得られた線分が特定される。
The specific pattern acquisition unit 11 specifies a line segment that is close to the vehicle 5 and that is long in the vertical direction of the wide-angle image (the vertical direction in FIG. 8) as the line segment corresponding to the parallel line group. A line segment long in the horizontal direction (the horizontal direction in FIG. 8) is specified as the line segment corresponding to the vertical line. At this time, the specific pattern acquisition unit 11 specifies two or more line segments that are long in the vertical direction of the mouth corner image with respect to the one group. That is, a line segment obtained from each of two or more side lines is specified.

図8によれば、例えば、特定パターン取得部11は、図面左側(車両5の右サイド)のサイドライン41から抽出された線分41Aと、図面右側(車両5の左サイド)のサイドライン41から抽出された線分41Aとを当該平行線群に対応する各線分として特定する。特定パターン取得部11は、更に、当該垂直線に対応する線分として線分42A及び42Bの少なくとも一方を特定する。特定パターン取得部11は、このように特定されたHパターンに対応する各線分についての情報を当該広角画像と共に消失点決定部12へ送る。特定パターン取得部11は、上記(式4)を用いて決定される各線分の投影平面の法線ベクトルを各線分についての情報として消失点決定部12に送るようにしてもよい。この法線ベクトルの決定は最小2乗法が利用される。   According to FIG. 8, for example, the specific pattern acquisition unit 11 includes a line segment 41A extracted from the side line 41 on the left side of the drawing (right side of the vehicle 5) and the side line 41 on the right side of the drawing (left side of the vehicle 5). The line segment 41A extracted from is identified as each line segment corresponding to the parallel line group. The specific pattern acquisition unit 11 further specifies at least one of the line segments 42A and 42B as a line segment corresponding to the vertical line. The specific pattern acquisition unit 11 sends information about each line segment corresponding to the H pattern specified in this way to the vanishing point determination unit 12 together with the wide-angle image. The specific pattern acquisition unit 11 may send the normal vector of the projection plane of each line segment determined using (Equation 4) to the vanishing point determination unit 12 as information about each line segment. For the determination of the normal vector, the least square method is used.

消失点決定部12は、特定パターン取得部11から得られるHパターンに対応する各線分についての情報を用いて、当該広角画像内の2組の消失点ペアを決定する。具体的には、まず、消失点決定部12は、当該平行線群に対応する各線分から1対の消失点ペアを決定する。次に、消失点決定部12は、当該垂直線に対応する線分と当該平行線群に対応する各線分との関係から1対の消失点ペアを決定する。図9及び10は、消失点決定部12における消失点決定のアルゴリズムを示す図である。   The vanishing point determination unit 12 determines two vanishing point pairs in the wide-angle image using information about each line segment corresponding to the H pattern obtained from the specific pattern acquisition unit 11. Specifically, the vanishing point determination unit 12 first determines one vanishing point pair from each line segment corresponding to the parallel line group. Next, the vanishing point determination unit 12 determines a pair of vanishing points from the relationship between the line segment corresponding to the vertical line and each line segment corresponding to the parallel line group. 9 and 10 are diagrams illustrating an algorithm for determining a vanishing point in the vanishing point determining unit 12.

図9には、仮想球面カメラによって観察された実空間中の3本の平行線群が示されている。図9に示すように、これら平行線群は、球面画像中の1対の消失点をもたらす。   FIG. 9 shows a group of three parallel lines in real space observed by a virtual spherical camera. As shown in FIG. 9, these parallel line groups provide a pair of vanishing points in the spherical image.

消失線は、無限空間における平行な平面群の交わるところとして定義される。球面画像では、この消失線は、図10に示すように、平行平面の交差する箇所であり球面画像の中心を通る大円に対応する。そして、平行平面と平行な線の一対の消失点は、その線と当該平面の消失線との交差点として決定することができる。つまり、1つの線における一対の消失点は、その線を含む平行線群、又は、その線と平行な平面の消失線によって決定され得る。   Vanishing lines are defined as the intersection of parallel plane groups in infinite space. In the spherical image, this vanishing line corresponds to a great circle that passes through the center of the spherical image, as shown in FIG. A pair of vanishing points of a line parallel to the parallel plane can be determined as an intersection between the line and the vanishing line of the plane. That is, a pair of vanishing points in one line can be determined by a parallel line group including the line or a vanishing line on a plane parallel to the line.

図11は、球面画像におけるHパターンと消失点との関係を示す図である。図11には、2つの平行線lS1及びlS2、並びに、その2つの線に垂直な別の線lから構成されるHパターンが示されている。消失点決定部12は、Hパターン中の2つの平行線lS1及びlS2から一対の消失点V及びV’を決定する。 FIG. 11 is a diagram illustrating the relationship between the H pattern and the vanishing point in the spherical image. FIG. 11 shows an H pattern composed of two parallel lines l S1 and l S2 and another line l R perpendicular to the two lines. The vanishing point determination unit 12 determines a pair of vanishing points V S and V ′ S from the two parallel lines l S1 and l S2 in the H pattern.

原点からVへの法線ベクトルnを以て、球面画像の中心を通る平面Πを決定する。この平面の球面画像との交点は大円Cをもたらす。この大円Cは、平面Πを含む並行平面の消失線である。線lは平面Πと平行であるから、線lの球面画像への投影平面と平面Πとの交点V及びV’が線lの一対の消失点となる。これにより、消失点決定部12は、Hパターンから2組の消失点を得ることができる。 A plane 通 る that passes through the center of the spherical image is determined with a normal vector n from the origin to V S. The intersection of this plane with the spherical image results in a great circle CV . The great circle CV is a vanishing line of parallel planes including a plane plane. Since the line l R is parallel to the plane [pi, intersection V R and V 'R of the projection plane and the plane [pi to the spherical image line l R is a pair of vanishing point of the line l R. Thereby, the vanishing point determination unit 12 can obtain two sets of vanishing points from the H pattern.

以下、消失点決定部12の処理をより具体的に説明する。消失点決定部12は、Hパターンを形成する各線分(平行線lS1及びlS2、並びに、垂直線l)の投影平面の各法線ベクトルをそれぞれ特定パターン決定部11から受ける。ここでは、各法線ベクトルをそれぞれnS1、nS2、nで示す。 Hereinafter, the process of the vanishing point determination unit 12 will be described more specifically. The vanishing point determination unit 12 receives from the specific pattern determination unit 11 each normal vector of the projection plane of each line segment (parallel lines l S1 and l S2 and vertical line l R ) forming the H pattern. Here, the normal vectors are denoted by n S1 , n S2 , and n R , respectively.

消失点決定部12は、各法線ベクトルを用いて2つの平行線lS1及びlS2における一対の消失点ペア(V及びV’)を以下の(式5)のように算出する。 The vanishing point determination unit 12 calculates a pair of vanishing point pairs (V S and V ′ S ) in the two parallel lines l S1 and l S2 using each normal vector as shown in the following (formula 5).

Figure 0005455124
Figure 0005455124

ここで、原点を通りn(=nS1×nS2)を法線ベクトルとする平面Πの消失線(大円C)は以下の(式6)のように示される。また、垂直線lの投影平面の単位球面画像との交点は以下の(式7)のように示される。 Here, a vanishing line (great circle C V ) of a plane plane passing through the origin and having n (= n S1 × n S2 ) as a normal vector is expressed as in the following (formula 6). Further, the intersection of the unit sphere image projection plane perpendicular line l R is shown as the following equation (7).

Figure 0005455124
Figure 0005455124

消失点決定部12は、(式6)及び(式7)の解として、垂直線lに関する一対の消失点V及びV’を算出する。具体的には、x=tanθcosφ及びy=tanθsinφとし、(式6)及び(式7)の両辺がcosθで除算され、以下の(式8)が得られる。更に、(式8)の方程式の解により、下記(式9)が得られ、結果、(式10)が得られる。 The vanishing point determination unit 12 calculates a pair of vanishing points V R and V ′ R related to the vertical line l R as a solution of (Expression 6) and (Expression 7). Specifically, x = tan θ cos φ and y = tan θ sin φ are set, and both sides of (Expression 6) and (Expression 7) are divided by cos θ to obtain (Expression 8) below. Further, by solving the equation (Equation 8), the following (Equation 9) is obtained, and as a result, (Equation 10) is obtained.

Figure 0005455124
Figure 0005455124

消失点決定部12は、φの値を用いてθの値を算出し、そして、垂直線lに関する一対の消失点ペアを決定する。この消失点ペアの位置は、その単位球面上における極座標(θ、φ)で決まり、その直交座標は(sinθcosφ,sinθsinφ,cosθ)と(−sinθcosφ,−sinθsinφ,−cosθ)で求められる。 Vanishing point determining unit 12 uses the value of φ to calculate the value of theta, and determines the pair of vanishing point pairs about vertical l R. The position of the vanishing point pair is determined by polar coordinates (θ, φ) on the unit sphere, and the orthogonal coordinates thereof are obtained by (sin θ cos φ, sin θ sin φ, cos θ) and (−sin θ cos φ, −sin θ sin φ, −cos θ).

消失点決定部12は、特定パターン取得部11から2つの垂直線(図8に示す線分42A及び42B)の情報を得ている場合には、各垂直線について上述のようにそれぞれ一対の消失点ペアを決定し、これらの平均値を最終的な垂直線に関する一対の消失点ペアとしてもよい。   When the vanishing point determination unit 12 obtains information of two vertical lines (the line segments 42A and 42B shown in FIG. 8) from the specific pattern acquisition unit 11, a pair of disappearances are respectively provided for each vertical line as described above. A point pair may be determined, and the average of these may be used as a pair of vanishing point pairs for the final vertical line.

パラメータ推定部13は、消失点決定部12により決定された2組の消失点ペアの情報を用いて、車載カメラ7の地面(世界座標系)に対する姿勢パラメータを推定する。広角画像において検出された2組の消失点ペアからカメラ姿勢パラメータを推定する手法については周知な手法が採用されればよいため、ここでは説明を簡略化する。   The parameter estimation unit 13 estimates posture parameters of the in-vehicle camera 7 with respect to the ground (world coordinate system) using the information on the two vanishing point pairs determined by the vanishing point determination unit 12. Since a known method may be adopted as a method for estimating camera posture parameters from two vanishing point pairs detected in a wide-angle image, the description is simplified here.

パラメータ推定部13は、2組の消失点ペアから地面に対する回転行列(rotational matrix)を推定する。更に、パラメータ推定部13は、広角画像中のサイドラインとリア
ラインとの交点を1つの世界座標系の原点に設定し、この原点及び2組の消失点ペアに基づいて並進ベクトル(translational vector)を推定する。推定された回転行列はカメラ方位(orientation)を示し、推定された並進ベクトルはカメラ位置(displacement)を
示す。パラメータ推定部13は、このように推定された回転行列及び並進ベクトルを含む姿勢パラメータを周辺画像生成装置20へ送る。
The parameter estimation unit 13 estimates a rotation matrix with respect to the ground from two vanishing point pairs. Further, the parameter estimation unit 13 sets the intersection of the side line and the rear line in the wide-angle image as the origin of one world coordinate system, and based on this origin and two pairs of vanishing points, a translational vector (translational vector) Is estimated. The estimated rotation matrix indicates the camera orientation, and the estimated translation vector indicates the camera displacement. The parameter estimation unit 13 sends posture parameters including the rotation matrix and the translation vector estimated in this way to the peripheral image generation apparatus 20.

[動作例]
以下、実施例1におけるパラメータ推定装置1の動作例を図12を用いて説明する。図12は、実施例1におけるパラメータ推定装置1の動作例を示すフローチャートである。
[Operation example]
Hereinafter, an operation example of the parameter estimation apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an operation example of the parameter estimation device 1 according to the first embodiment.

特定パターン取得部11は、車載カメラ7から送られた映像信号を受信すると、この映像信号から広角画像を取得する(S121)。特定パターン取得部11は、このような広角画像から実空間における特定のパターン(Hパターン)に対応する各線分を検出する(122)。具体的には、特定パターン取得部11は、Hパターンを構成する少なくとも2本の平行線群に対応する各線分と、当該平行線群と垂直な垂直線に対応する線分とを検出する。   When the specific pattern acquisition unit 11 receives the video signal transmitted from the in-vehicle camera 7, the specific pattern acquisition unit 11 acquires a wide-angle image from the video signal (S121). The specific pattern acquisition unit 11 detects each line segment corresponding to a specific pattern (H pattern) in real space from such a wide-angle image (122). Specifically, the specific pattern acquisition unit 11 detects each line segment corresponding to at least two parallel line groups constituting the H pattern and a line segment corresponding to a vertical line perpendicular to the parallel line group.

消失点決定部12は、特定パターン取得部11からHパターンに対応する各線分を取得する。消失点決定部12は、当該平行線群に対応する各線分から1組の消失点ペアを決定する(S123)。これは、広角画像が前記広角カメラの内部パラメータを用いてマッピングされた球面画像に対する1組の消失点ペアとして決定される。   The vanishing point determination unit 12 acquires each line segment corresponding to the H pattern from the specific pattern acquisition unit 11. The vanishing point determination unit 12 determines one vanishing point pair from each line segment corresponding to the parallel line group (S123). This is determined as one vanishing point pair for the spherical image in which the wide-angle image is mapped using the internal parameters of the wide-angle camera.

次に、消失点決定部12は、当該平行線群に対応する各線分から決定された消失点ペアと当該垂直線に対応する線分との関係からもう1組の消失点ペアを決定する(S124)。具体的には、上述のように決定された1つの消失点と当該球面画像の中心とを結ぶ線を法線とする平面から1つの消失線を決定し、その平面と平行な関係となる垂直線のその球面画像への投影平面からもう1つの消失線を決定し、決定された2つの消失線の交点からそのもう1組の消失点ペアを決定する。   Next, the vanishing point determination unit 12 determines another vanishing point pair from the relationship between the vanishing point pair determined from each line segment corresponding to the parallel line group and the line segment corresponding to the vertical line (S124). ). Specifically, one vanishing line is determined from a plane whose normal is a line connecting one vanishing point determined as described above and the center of the spherical image, and a vertical relationship that is parallel to the plane is determined. Another vanishing line is determined from the projection plane of the line onto the spherical image, and the other vanishing point pair is determined from the intersection of the two vanishing lines determined.

パラメータ推定部12は、消失点決定部12により決定された当該広角画像における2組の消失点ペアを用いて、車載カメラ7の姿勢パラメータを推定する(S125)。具体的には、パラメータ推定部13は、2組の消失点ペアから地面に対する回転行列を推定し、更に、広角画像中のサイドラインとリアラインとの交点を1つの世界座標系の原点に設定し、この原点及び2組の消失点ペアに基づいて並進ベクトルを推定する。   The parameter estimation unit 12 estimates the posture parameter of the in-vehicle camera 7 using the two vanishing point pairs in the wide-angle image determined by the vanishing point determination unit 12 (S125). Specifically, the parameter estimation unit 13 estimates the rotation matrix with respect to the ground from the two vanishing point pairs, and further sets the intersection of the side line and the rear line in the wide-angle image as the origin of one world coordinate system. A translation vector is estimated based on the origin and two vanishing point pairs.

[実施例1における作用及び効果]
上述したような実施例1におけるパラメータ推定装置1では、車載カメラ7により車両5の周辺環境として駐車場の駐車ラインが撮像されることで得られる広角画像から、特定パターン取得部11が実空間上でのHパターンに対応する線分を検出する。実施例1では、世界座標系でのHパターンとして、駐車場の地面に付されている駐車ラインのうち、少なくとも2本の平行線群とこれらに垂直な1本の垂直線とに対応する各線分が当該広角画像から検出される。
[Operation and Effect in Example 1]
In the parameter estimation apparatus 1 according to the first embodiment as described above, the specific pattern acquisition unit 11 is in real space from a wide-angle image obtained by imaging the parking line of the parking lot as the surrounding environment of the vehicle 5 by the in-vehicle camera 7. A line segment corresponding to the H pattern is detected. In Example 1, as an H pattern in the world coordinate system, each line corresponding to at least two parallel line groups and one vertical line perpendicular thereto among the parking lines attached to the ground of the parking lot. Minutes are detected from the wide-angle image.

続いて、消失点決定部12がこのように検出された実空間上のHパターンに対応する各線分を用いて広角画像中の2組の消失点ペアを決定する。続いて、パラメータ推定部13が、このように決定された2組の消失点ペアを利用して車載カメラ7の姿勢パラメータのうちの回転行列を推定し、かつ、垂直線と平行線群との交点に設定される原点及び2組の消失点ペアを用いて車載カメラ7の姿勢パラメータのうちの並進ベクトルを推定する。   Subsequently, the vanishing point determination unit 12 determines two vanishing point pairs in the wide-angle image using each line segment corresponding to the H pattern in the real space thus detected. Subsequently, the parameter estimation unit 13 estimates the rotation matrix of the posture parameters of the in-vehicle camera 7 using the two vanishing point pairs determined in this way, and the vertical line and the parallel line group The translation vector of the posture parameters of the in-vehicle camera 7 is estimated using the origin set at the intersection and the two vanishing point pairs.

これにより、周辺画像生成装置20では、パラメータ推定部13から得られた姿勢パラメータが外部パラメータとして用いられ、車載カメラ7から得られる広角画像から図4に示すような車両5の周辺を映し出す画像データが生成される。   Thereby, in the surrounding image generation device 20, the attitude parameter obtained from the parameter estimation unit 13 is used as an external parameter, and the image data that reflects the periphery of the vehicle 5 as shown in FIG. 4 from the wide-angle image obtained from the in-vehicle camera 7 is displayed. Is generated.

このように実施例1のパラメータ推定装置1によれば、特定パターンを持つ駐車ラインが付された駐車場に対象車両5を駐車しさえすれば、簡単にかつ正確に、車載カメラ7の外部パラメータを校正することができる。通常の駐車場には上述のようなHパターンが存在しているので、実施例1によれば、従来手法のように、複数のマーカを準備し、かつ、予め決められた正確な位置に各マーカを配置する等といった負担の大きい作業を必要としない。また、駐車ラインのHパターンは必ずしも平行線群と垂直線とが直交している状態で車載カメラ7に撮像される必要はなく、その交点にトラフィックコーンのような障害物が置かれていたりその交点付近のラインが消されていたとしても姿勢パラメータを推定可能であることは言うまでもない。このような場合には、広角画像から検出された各線分をその方向に応じて延長させて交点を導くようにすればよい。   As described above, according to the parameter estimation device 1 of the first embodiment, the external parameters of the in-vehicle camera 7 can be easily and accurately set as long as the target vehicle 5 is parked in the parking lot with the parking line having the specific pattern. Can be calibrated. Since an H pattern as described above exists in a normal parking lot, according to the first embodiment, a plurality of markers are prepared as in the conventional method, and each is set at a predetermined accurate position. There is no need for heavy work such as placing a marker. In addition, the H pattern of the parking line does not necessarily have to be imaged by the in-vehicle camera 7 with the parallel line group and the vertical line orthogonal to each other, and an obstacle such as a traffic cone is placed at the intersection. It goes without saying that the posture parameter can be estimated even if the line near the intersection is erased. In such a case, each line segment detected from the wide-angle image may be extended according to the direction so as to derive the intersection.

更に、従来は、球面カメラモデルにおいて、消失点は、2つ以上の平行線群の交点として決定されていたところ、実施例1では、Hパターンから2組の消失点ペアを決定することができるため、姿勢パラメータを校正するためのシーンの制限を一層緩くすることができる。   Further, conventionally, in the spherical camera model, the vanishing point is determined as an intersection of two or more parallel line groups, but in Example 1, two vanishing point pairs can be determined from the H pattern. Therefore, it is possible to further relax the restriction of the scene for correcting the posture parameter.

実施例1では1つの車載カメラ7の姿勢パラメータを推定対象としていた。そこで、実施例2として、3つの車載カメラ7の各姿勢パラメータを推定対象とする例を以下に示す。以下、実施例1と異なる内容を中心に実施例2におけるパラメータ推定装置について説明する。   In the first embodiment, the posture parameter of one in-vehicle camera 7 is an estimation target. Therefore, as Example 2, an example in which each posture parameter of the three in-vehicle cameras 7 is an estimation target will be described below. Hereinafter, the parameter estimation apparatus according to the second embodiment will be described focusing on the content different from the first embodiment.

図13は、実施例2におけるパラメータ推定装置が搭載される車両の上面図を示す模式図である。図14は、実施例2におけるパラメータ推定装置を含むカメラシステムの構成を示す模式図である。実施例2におけるカメラシステム1は、3つの車載カメラ7、実施例2におけるパラメータ推定装置10、周辺画像生成装置20、表示装置30等で構成される。   FIG. 13 is a schematic diagram illustrating a top view of a vehicle on which the parameter estimation device according to the second embodiment is mounted. FIG. 14 is a schematic diagram illustrating a configuration of a camera system including the parameter estimation device according to the second embodiment. The camera system 1 according to the second embodiment includes three in-vehicle cameras 7, the parameter estimation device 10 according to the second embodiment, a peripheral image generation device 20, a display device 30, and the like.

実施例2では、車両5に3つの車載カメラ7が車両の後部(7B)、左サイド(7L)及び右サイド(7R)にそれぞれ設定される。各車載カメラ7は、実施例1と同様に広角カメラである。以降、車載カメラ7B、7R及び7Lをそれぞれリアカメラ、右カメラ、左カメラとも表記する。なお、本発明は、車載カメラ7B、7R及び7Lを設置する厳密な各位置を限定するものではない。   In the second embodiment, three in-vehicle cameras 7 are set on the vehicle 5 at the rear part (7B), the left side (7L), and the right side (7R) of the vehicle, respectively. Each in-vehicle camera 7 is a wide-angle camera as in the first embodiment. Hereinafter, the in-vehicle cameras 7B, 7R, and 7L are also referred to as a rear camera, a right camera, and a left camera, respectively. In addition, this invention does not limit each exact position which installs the vehicle-mounted cameras 7B, 7R, and 7L.

図15は、各車載カメラ7から得られる広角画像の例を示す図である。具体的には、図15(A)は、左カメラ7Lから得られる広角画像の例を示し、図15(B)は、リアカメラ7Bから得られる広角画像の例を示し、図15(C)は、右カメラ7Rから得られる広角画像の例を示す。図15(A)及び(C)に示されるように、左カメラ7L及び右カメラ7Rから得られる各広角画像では、リアライン42が図面に対して縦方向に長く延びており、サイドライン41が図面に対して横方向に長く伸びている。逆に、図15(B)に示されるリアカメラ7Bから得られる広角画像では、リアライン42が図面に対して横方向に長く延びており、サイドライン41が図面に対して縦方向に長く伸びている。   FIG. 15 is a diagram illustrating an example of a wide-angle image obtained from each vehicle-mounted camera 7. Specifically, FIG. 15A shows an example of a wide-angle image obtained from the left camera 7L, FIG. 15B shows an example of a wide-angle image obtained from the rear camera 7B, and FIG. Shows an example of a wide-angle image obtained from the right camera 7R. As shown in FIGS. 15A and 15C, in each wide-angle image obtained from the left camera 7L and the right camera 7R, the rear line 42 extends long in the vertical direction with respect to the drawing, and the side line 41 has It extends long in the lateral direction with respect to the drawing. Conversely, in the wide-angle image obtained from the rear camera 7B shown in FIG. 15B, the rear line 42 extends in the horizontal direction with respect to the drawing, and the side line 41 extends in the vertical direction with respect to the drawing. ing.

図13及び15から分かるように、リアカメラ7Bは、少なくとも車両5の後部より後方の領域(図13で示す長鎖線7B−FOV)を視野領域とする。右カメラ7Rは、少なくとも車両5の右側面より右方向の領域(図13で示す長鎖線7R−FOV)を視野領域とする。左カメラ7Lは、少なくとも車両5の左側面より左方向の領域(図13で示す長鎖線7L−FOV)を視野領域とする。よって、実施例2では、右カメラ7Rとリアカメラ7Bとの間には、重複する視野領域(図13で斜線で示される領域OL−FOV−R)が存在し、左カメラ7Lとリアカメラ7Bとの間には、重複する視野領域(図13で斜線
で示される領域OL−FOV−L)が存在する。
As can be seen from FIGS. 13 and 15, the rear camera 7 </ b> B uses at least a region behind the rear portion of the vehicle 5 (long chain line 7 </ b> B-FOV shown in FIG. 13) as a visual field region. The right camera 7R uses at least a region in the right direction from the right side surface of the vehicle 5 (a long chain line 7R-FOV shown in FIG. 13) as a visual field region. The left camera 7L uses at least a region leftward from the left side surface of the vehicle 5 (a long chain line 7L-FOV shown in FIG. 13) as a visual field region. Therefore, in the second embodiment, an overlapping visual field region (region OL-FOV-R indicated by hatching in FIG. 13) exists between the right camera 7R and the rear camera 7B, and the left camera 7L and the rear camera 7B. There is an overlapping visual field region (region OL-FOV-L indicated by hatching in FIG. 13).

周辺画像生成装置20は、3つの車載カメラ7からそれぞれ映像信号を受け、各映像信号から各広角画像をそれぞれ取得する。周辺画像生成装置20は、各広角画像を各車載カメラ7の内部パラメータ及び外部パラメータを用いてそれぞれ変換することにより、車両5の周辺を映し出す画像データを生成する。図16は、実施例2における出力画像(鳥瞰図)の例を示す図である。なお、図15の例のような複数の車載カメラ7から得られた広角画像から図16に示すような画像データを生成する具体的手法については周知な手法が利用されればよいため、ここでは説明を省略する。   The peripheral image generation device 20 receives video signals from the three in-vehicle cameras 7 and acquires each wide-angle image from each video signal. The peripheral image generation device 20 generates image data that reflects the periphery of the vehicle 5 by converting each wide-angle image using the internal parameter and the external parameter of each vehicle-mounted camera 7. FIG. 16 is a diagram illustrating an example of an output image (bird's eye view) according to the second embodiment. In addition, since a well-known method should just be utilized about the specific method of producing | generating image data as shown in FIG. 16 from the wide-angle image obtained from the some vehicle-mounted camera 7 like the example of FIG. 15, here, Description is omitted.

周辺画像生成装置20により生成された画像データは、表示装置30のディスプレイに表示される。これにより、運転者は、この表示装置30の表示面に映し出された映像を参照することにより、見え易い前方以外の各方向の状況を正確に認識することができ、結果、安全な運転操作を行うことができる。   The image data generated by the peripheral image generation device 20 is displayed on the display of the display device 30. Accordingly, the driver can accurately recognize the situation in each direction other than the front, which is easy to see, by referring to the video image displayed on the display surface of the display device 30. As a result, safe driving operation can be performed. It can be carried out.

周辺画像生成装置20は、3つの各車載カメラ7についてそれぞれ内部パラメータ及び外部パラメータを読み出し可能なメモリに格納する。各カメラの内部パラメータについては、実施例1と同様に、製造時等に予め測定され格納されている。各カメラの外部パラメータ(姿勢パラメータ)は、その初期値が当該メモリに予めそれぞれ格納されており、任意のタイミングでパラメータ推定装置10によりそれぞれ校正される。   The peripheral image generation device 20 stores internal parameters and external parameters for each of the three in-vehicle cameras 7 in a readable memory. As in the first embodiment, the internal parameters of each camera are measured and stored in advance at the time of manufacture. The initial values of the external parameters (posture parameters) of each camera are stored in advance in the memory, and are calibrated by the parameter estimation device 10 at an arbitrary timing.

[装置構成]
実施例2におけるパラメータ推定装置10は、各車載カメラ7について、特定パターン取得部11、消失点決定部12及びパラメータ推定部13のセットをそれぞれ有する。具体的には、リアカメラ7Bから得られる広角画像を処理するセットとして特定パターン取得部11B、消失点決定部12B及びパラメータ推定部13Bが備えられ、右カメラ7Rから得られる広角画像を処理するセットとして特定パターン取得部11R、消失点決定部12R及びパラメータ推定部13Rが備えられ、左カメラ7Lから得られる広角画像を処理するセットとして特定パターン取得部11L、消失点決定部12L及びパラメータ推定部13Lが備えられる。
[Device configuration]
The parameter estimation device 10 according to the second embodiment includes a set of a specific pattern acquisition unit 11, a vanishing point determination unit 12, and a parameter estimation unit 13 for each in-vehicle camera 7. Specifically, the specific pattern acquisition unit 11B, the vanishing point determination unit 12B, and the parameter estimation unit 13B are provided as a set for processing a wide-angle image obtained from the rear camera 7B, and a set for processing a wide-angle image obtained from the right camera 7R. As a set for processing a wide-angle image obtained from the left camera 7L, the specific pattern acquisition unit 11L, the vanishing point determination unit 12L, and the parameter estimation unit 13L are provided. Is provided.

特定パターン取得部11B、消失点決定部12B及びパラメータ推定部13Bは、実施例1と同様の手法により、リアカメラ7Bから得られる広角画像からリアカメラ7Bの姿勢パラメータを推定する。同様に、特定パターン取得部11R、消失点決定部12R及びパラメータ推定部13Rは、実施例1と同様の手法により、右カメラ7Rから得られる広角画像から右カメラ7Rの姿勢パラメータを推定する。同様に、特定パターン取得部11L、消失点決定部12L及びパラメータ推定部13Lは、実施例1と同様の手法により、左カメラ7Lから得られる広角画像からリアカメラ7Lの姿勢パラメータを推定する。   The specific pattern acquisition unit 11B, the vanishing point determination unit 12B, and the parameter estimation unit 13B estimate the posture parameter of the rear camera 7B from the wide-angle image obtained from the rear camera 7B by the same method as in the first embodiment. Similarly, the specific pattern acquisition unit 11R, the vanishing point determination unit 12R, and the parameter estimation unit 13R estimate the posture parameter of the right camera 7R from the wide-angle image obtained from the right camera 7R by the same method as in the first embodiment. Similarly, the specific pattern acquisition unit 11L, the vanishing point determination unit 12L, and the parameter estimation unit 13L estimate the posture parameter of the rear camera 7L from the wide-angle image obtained from the left camera 7L by the same method as in the first embodiment.

図17は、各車載カメラから取得された広角画像からの線分検出の例を示す図である。上述したように、リアカメラ7Bから取得された広角画像と、他のカメラ7L及び7Bから得られた広角画像とでは、リアライン42及びサイドライン41の伸びる方向が異なる。そこで、特定パターン取得部11Bは、実施例1と同様に、実空間におけるHパターンに対応する各線分を検出すればよいが、特定パターン取得部11R及び11Lは、実施例1とは若干異なる。特定パターン取得部11R及び11Lはそれぞれ、抽出された線分のうち車両5に近く広角画像の縦方向(図17の縦方向)に長い線分を当該垂直線として特定し、車両5に近く横方向(図17の横方向)に長い線分を当該平行線群として特定する。なお、特定パターン取得部11R及び11Lのその他の処理については、実施例1と同様である。   FIG. 17 is a diagram illustrating an example of line segment detection from a wide-angle image acquired from each in-vehicle camera. As described above, the extending direction of the rear line 42 and the side line 41 differs between the wide-angle image acquired from the rear camera 7B and the wide-angle image obtained from the other cameras 7L and 7B. Therefore, the specific pattern acquisition unit 11B may detect each line segment corresponding to the H pattern in the real space, as in the first embodiment, but the specific pattern acquisition units 11R and 11L are slightly different from the first embodiment. Each of the specific pattern acquisition units 11R and 11L specifies, as the vertical line, a line segment that is close to the vehicle 5 and is long in the vertical direction of the wide-angle image (the vertical direction in FIG. 17). A line segment long in the direction (the horizontal direction in FIG. 17) is specified as the parallel line group. The other processes of the specific pattern acquisition units 11R and 11L are the same as in the first embodiment.

なお、図14の例では、各車載カメラ7についてそれぞれ特定パターン取得部11、消失点決定部12及びパラメータ推定部13のセットを設ける例を示したが、本発明はこのような構成に限定するものではない。特定パターン取得部11、消失点決定部12及びパラメータ推定部13が1つずつ設けられるようにしてもよい。   In the example of FIG. 14, an example in which a set of the specific pattern acquisition unit 11, the vanishing point determination unit 12, and the parameter estimation unit 13 is provided for each in-vehicle camera 7 is shown, but the present invention is limited to such a configuration. It is not a thing. One specific pattern acquisition unit 11, one vanishing point determination unit 12, and one parameter estimation unit 13 may be provided.

実施例2におけるパラメータ推定装置10は、更に、パラメータ補整部15を有する。パラメータ補整部15は、各パラメータ推定部13B、13L及び13Rにより推定された各姿勢パラメータを、右カメラ7Rとリアカメラ7Bとの間、及び、左カメラ7Lとリアカメラ7Bとの間の各相対姿勢に関し補整する。   The parameter estimation device 10 according to the second embodiment further includes a parameter correction unit 15. The parameter correction unit 15 sets the posture parameters estimated by the parameter estimation units 13B, 13L, and 13R between the right camera 7R and the rear camera 7B and between the left camera 7L and the rear camera 7B. Correct for posture.

上述したように、実施例2では、隣接する2つの車載カメラ7の間には重複する視野領域OL−FOV−R及びOL−FOV−Lがある。パラメータ補整部15は、各パラメータ推定部13により推定された各姿勢パラメータを用いて、隣接する車載カメラ7のうちの一方から得られた広角画像上のピクセルを他方から得られた広角画像上にマッピングする。これにより、右カメラ7Rから得られた広角画像内の視野領域OL−FOV−Rに対応する領域、及び、左カメラ7Lから得られた広角画像内の視野領域OL−FOV−Lに対応する領域がそれぞれリアカメラ7Bから得られた広角画像にマッピングされる。   As described above, in the second embodiment, there are overlapping visual field areas OL-FOV-R and OL-FOV-L between two adjacent vehicle-mounted cameras 7. The parameter correction unit 15 uses each posture parameter estimated by each parameter estimation unit 13 to put the pixel on the wide-angle image obtained from one of the adjacent in-vehicle cameras 7 on the wide-angle image obtained from the other. Map. Accordingly, a region corresponding to the visual field region OL-FOV-R in the wide-angle image obtained from the right camera 7R and a region corresponding to the visual field region OL-FOV-L in the wide-angle image obtained from the left camera 7L. Are mapped to wide-angle images obtained from the rear camera 7B.

以下、隣接する車載カメラ7から得られた広角画像間のマッピング処理についてより詳細に説明する。パラメータ補整部15は、パラメータ推定部13L及び13Bから左カメラ7Lの姿勢パラメータ(Rlg,Tlg)及びリアカメラ7Bの姿勢パラメータ(Rbg,Tbg)を取得する。このとき、左カメラ7Lから得られた広角画像及びリアカメラ7Bから得られた広角画像における地上点Pの射影がそれぞれx及びxblであると想定すると、以下の式が成立する。 Hereinafter, the mapping process between wide-angle images obtained from the adjacent in-vehicle cameras 7 will be described in more detail. The parameter correction unit 15 acquires the posture parameters (R lg , T lg ) of the left camera 7L and the posture parameters (R bg , T bg ) of the rear camera 7B from the parameter estimation units 13L and 13B. At this time, the projection of the ground point P g in the wide-angle image obtained from the wide-angle image and the rear camera 7B obtained from the left camera 7L is assumed to be, respectively x l and x bl, the following expression holds.

Figure 0005455124
Figure 0005455124

s(x)及びs(xbl)はそれぞれ単位球面画像における対応点x及びxblの座標を示し、各内部パラメータにより上記(式3)を用いて算出される。λ及びλは、世界座標系のx軸及びy軸が地上平面に設定されたときに地上点Pのz座標がゼロとなるという地上平面の制約により決定されるスケール因子である。 s (x l ) and s (x bl ) indicate the coordinates of the corresponding points x l and x bl in the unit spherical image, respectively, and are calculated using the above (Equation 3) with each internal parameter. lambda l and lambda b are scaling factor z coordinates of ground point P g is determined by the constraints of the ground plane to become zero when x-axis and y-axis of the world coordinate system is set on the ground plane.

上記(式11)によれば、下記(式12)が得られ、最終的に、下記(式13)が得られる。Rbg −1はRbgの逆行列を示す。また、s−1は、sの逆演算を示し、カメラの内部パラメータによって単位球面画像の点から広角画像の点を算出することを意味する。 According to the above (Formula 11), the following (Formula 12) is obtained, and finally, the following (Formula 13) is obtained. R bg −1 represents an inverse matrix of R bg . Further, s −1 indicates an inverse operation of s, and means that a point of the wide-angle image is calculated from the point of the unit spherical image by an internal parameter of the camera.

Figure 0005455124
Figure 0005455124

パラメータ補整部15は、例えば上記(式13)においてカメラ姿勢パラメータ及び既知の内部パラメータを用いることにより、左カメラ7Lから得られた広角画像における地上点Pに対応する点xをリアカメラ7Bから得られた広角画像における地上点Pに対応する点xblにマッピングする。なお、上述の説明では、左カメラ7L及びリアカメラ7Bから得られた各広角画像間のマッピング処理について示したが、右カメラ7R及びリアカメラ7Bから得られた各広角画像間のマッピング処理の同様であるためここでは説明を省略する。 The parameter correction unit 15 uses, for example, the camera posture parameter and the known internal parameter in the above (Equation 13), and thereby converts the point x l corresponding to the ground point P g in the wide-angle image obtained from the left camera 7L to the rear camera 7B. mapping the point x bl corresponding to the ground point P g in the resulting wide-angle image from. In the above description, the mapping process between the wide-angle images obtained from the left camera 7L and the rear camera 7B has been described, but the mapping process between the wide-angle images obtained from the right camera 7R and the rear camera 7B is the same. Therefore, the description is omitted here.

以降、説明を簡単にするために、上記(式13)を用いたマッピング処理を以下の(式14)のように示す。同様に、右カメラ7Rから得られた広角画像及びリアカメラ7Bから得られた広角画像における地上点Pg2の射影がそれぞれx及びxbrであると想定し、右カメラ7R及びリアカメラ7Bから得られた各広角画像間のマッピング処理を以下の(式15)のように示す。 Hereinafter, in order to simplify the description, the mapping process using the above (Formula 13) is shown as the following (Formula 14). Similarly, the projection of the ground point P g2 is assumed to be x r and x br respectively at the wide-angle image obtained from the wide-angle image and the rear camera 7B obtained from the right camera 7R, from right camera 7R and the rear camera 7B The mapping processing between the obtained wide-angle images is shown as (Equation 15) below.

Figure 0005455124
Figure 0005455124

ここで、x、x、xbl及びxbrの明るさをL(x)、L(x)、L(xbl)、L(xbr)で示した場合、以下の(式16)によって、隣接する2つの車載カメラ間で重複する視野領域に対応する重複画像領域の同一性を計算することができる。Ω及びΩは、左カメラ7L及びリアカメラ7Bの間、並びに、右カメラ7R及びリアカメラ7Bの間の地上の重複画像領域を示し、L(上線付き)、L(上線付き)、L(上線付き)は、それぞれ左カメラ、右カメラ及びリアカメラから取得された各広角画像における重複領域の画素値の平均値を示す。 Here, when the brightness of x l , x r , x bl and x br is indicated by L l (x l ), L r (x r ), L b (x bl ), L b (x br ), According to the following (Equation 16), the identity of the overlapping image region corresponding to the visual field region overlapping between two adjacent vehicle-mounted cameras can be calculated. Ω 1 and Ω 2 indicate overlapping image areas on the ground between the left camera 7L and the rear camera 7B, and between the right camera 7R and the rear camera 7B, and L 1 (with an upper line), L r (with an upper line) , L b (with an overline) represents the average value of the pixel values of the overlapping region in each wide-angle image acquired from the left camera, the right camera, and the rear camera, respectively.

Figure 0005455124
Figure 0005455124

パラメータ補整部15は、例えば上記(式16)を用いることにより、重複する視野領域に対応する重複画像領域が、リアカメラ7B、右カメラ7L、リアカメラ7Bからそれぞれ得られる各広角画像の間で近似するように、各カメラの姿勢パラメータをそれぞれ補整する。パラメータ補整部15は、例えば、シンプレックス法(simplex method)を用いることにより(式16)の値を最大化することにより各姿勢パラメータを補整する。具体的には、Ψlb及びΨrbには(式13)に示すように各姿勢パラメータが含まれているため、(式16)が最大化されたときに得られるΨlb及びΨrbから、補整された各姿勢パラメータを取得する。   The parameter correction unit 15 uses, for example, the above (Equation 16), so that overlapping image areas corresponding to overlapping field-of-view areas are among the wide-angle images respectively obtained from the rear camera 7B, the right camera 7L, and the rear camera 7B. The posture parameters of each camera are corrected so as to approximate. The parameter correction unit 15 corrects each posture parameter by, for example, maximizing the value of (Expression 16) by using a simplex method. Specifically, since each attitude parameter is included in Ψlb and Ψrb as shown in (Expression 13), each of the adjusted Ψlb and Ψrb obtained when (Expression 16) is maximized is corrected. Get attitude parameters.

図18は、実施例2においてカメラ姿勢パラメータの補整の繰り返し回数に対し計算された相関値を示すグラフである。相関値は(式16)を用いて計算される。パラメータ補整部15は、例えば(式16)で算出される相関値が0.8より大きくなった場合に処理を終了する。図18の例では、補整前の相関値が0.69であり、補整後の相関値が0.8となっている。パラメータ補整部15は、このように洗練された各姿勢パラメータをそれぞれ周辺画像生成部20へ送る。   FIG. 18 is a graph showing correlation values calculated for the number of repetitions of camera posture parameter correction in the second embodiment. The correlation value is calculated using (Equation 16). The parameter correction unit 15 ends the process when, for example, the correlation value calculated in (Expression 16) is greater than 0.8. In the example of FIG. 18, the correlation value before correction is 0.69, and the correlation value after correction is 0.8. The parameter correction unit 15 sends each posture parameter thus refined to the peripheral image generation unit 20.

[動作例]
以下、実施例2におけるパラメータ推定装置1の動作例を図19を用いて説明する。図19は、実施例2におけるパラメータ推定装置1の動作例を示すフローチャートである。
[Operation example]
Hereinafter, an operation example of the parameter estimation apparatus 1 according to the second embodiment will be described with reference to FIG. FIG. 19 is a flowchart illustrating an operation example of the parameter estimation device 1 according to the second embodiment.

特定パターン取得部11R、11B及び11Lは、各車載カメラ7から得られる各広角画像から実施例1と同様の手法によりHパターンに対応する平行線群及び垂直線を特定する(S121及びS122)。続いて、消失点決定部12R、12B及び12Lは、これら特定された各線分を用いて実施例1と同様の手法により各広角画像についての2組の消失点ペアをそれぞれ決定する(S123及びS124)。パラメータ推定部13R、13B及び13Lは、これら決定された2組ずつの消失点ペアに基づいて実施例1と同様の手法により各車載カメラ7の姿勢パラメータをそれぞれ推定する(S125)。   The specific pattern acquisition units 11R, 11B, and 11L specify parallel lines and vertical lines corresponding to the H pattern from the wide-angle images obtained from the in-vehicle cameras 7 by the same method as in the first embodiment (S121 and S122). Subsequently, the vanishing point determination units 12R, 12B, and 12L respectively determine two vanishing point pairs for each wide-angle image by using the identified line segments in the same manner as in the first embodiment (S123 and S124). ). The parameter estimation units 13R, 13B, and 13L respectively estimate the posture parameters of the in-vehicle cameras 7 based on these two determined vanishing point pairs by the same method as in the first embodiment (S125).

実施例2では、続いて、パラメータ補整部15が、複数の車載カメラ7のうち重複する視野領域を有する各車載カメラ7から得られる各広角画像における当該重複領域に対応する画像領域の画像データ(ピクセルデータ)を、推定された各姿勢パラメータを用いて対応付ける(S191)。具体的には、左カメラ7L及びリアカメラ7Bから得られた各広角画像間の対応付け(マッピング)処理、及び、右カメラ7R及びリアカメラ7Bから得
られた各広角画像間の対応付け処理がそれぞれ行われる。
In the second embodiment, subsequently, the parameter correction unit 15 includes image data of image areas corresponding to the overlapping areas in the wide-angle images obtained from the in-vehicle cameras 7 having overlapping visual field areas among the plurality of in-vehicle cameras 7 ( (Pixel data) is associated with each estimated posture parameter (S191). Specifically, an association (mapping) process between the wide-angle images obtained from the left camera 7L and the rear camera 7B and an association process between the wide-angle images obtained from the right camera 7R and the rear camera 7B are performed. Each done.

パラメータ補整部15は、当該車載カメラ7間で重複する視野領域に対応する重複画像領域の画像データ(ピクセルデータ)の相関を計算する(S192)。パラメータ補整部15は、この相関値が最大化するような値で当該各姿勢パラメータを補整する(S193)。これにより、各姿勢パラメータが、右カメラ7Rとリアカメラ7Bとの間、及び、左カメラ7Lとリアカメラ7Bとの間の各相対姿勢に関し補整される。   The parameter correction unit 15 calculates the correlation of the image data (pixel data) of the overlapping image region corresponding to the visual field region overlapping between the in-vehicle cameras 7 (S192). The parameter correction unit 15 corrects each posture parameter with a value that maximizes the correlation value (S193). Thereby, each attitude | position parameter is corrected regarding each relative attitude | position between the left camera 7L and the rear camera 7B between the right camera 7R and the rear camera 7B.

[実施例2における作用及び効果]
上述したような実施例2では、車両5の後部、右側面及び左側面に設置されたリアカメラ7B、右カメラ7R及び左カメラ7Lからそれぞれ広角画像が取得され、各広角画像に含まれる駐車ラインのHパターンに対応する線分を用いて実施例1と同様の手法によりリアカメラ7B、右カメラ7R及び左カメラ7Lの姿勢パラメータがそれぞれ推定される。
[Operation and Effect in Example 2]
In the second embodiment as described above, wide-angle images are acquired from the rear camera 7B, the right camera 7R, and the left camera 7L installed on the rear, right side, and left side of the vehicle 5, and parking lines included in each wide-angle image. The posture parameters of the rear camera 7B, the right camera 7R, and the left camera 7L are estimated by the same method as in the first embodiment using the line segments corresponding to the H pattern.

実施例2におけるパラメータ推定装置10では、更に、パラメータ補整部15により、実施例1と同様の手法により推定された3つの車載カメラ7の各姿勢パラメータが隣接する2つのカメラ間の相対姿勢に関し洗練される。具体的には、各パラメータ推定部13でそれぞれ推定された各姿勢パラメータ及び予め決められた内部パラメータが利用されることにより、隣接する2つのカメラの一方から得られる広角画像の点が他方から得られる広角画像の点にマッピングされる。このマッピングされた各広角画像の点の相関値が隣接する2つのカメラの重複視野領域に対応する画像領域において最大化されるように各姿勢パラメータが決定される。このように、実施例2によれば、隣接するカメラ間における地面の重複領域を使ってカメラ間で相対的な姿勢を洗練することができる。   In the parameter estimation apparatus 10 according to the second embodiment, each of the posture parameters of the three in-vehicle cameras 7 estimated by the parameter correction unit 15 by the same method as in the first embodiment is refined with respect to the relative posture between two adjacent cameras. Is done. Specifically, by using each posture parameter estimated by each parameter estimating unit 13 and a predetermined internal parameter, a point of a wide-angle image obtained from one of two adjacent cameras is obtained from the other. To a wide-angle image point. Each posture parameter is determined so that the correlation value of the points of each mapped wide-angle image is maximized in an image region corresponding to the overlapping visual field region of two adjacent cameras. As described above, according to the second embodiment, the relative posture between the cameras can be refined by using the overlapping area of the ground between the adjacent cameras.

図20は、パラメータ補整部15により補整される前の姿勢パラメータにより生成された鳥瞰図の例を示す図である。図21は、実施例2におけるカメラシステムで出力される鳥瞰図の例を示す図である。図20及び21では、下図の丸で囲まれた部分の拡大図が各上図でそれぞれ示されている。図20の鳥瞰図では、隣接するカメラ間の重複視野領域に相当する箇所において視覚的矛盾が見受けられる。ところが、図21の鳥瞰図では、その視覚的矛盾が解消されていることが分かる。このように、実施例2によれば、視覚的一貫性を持つ出力画像を生成することができる。   FIG. 20 is a diagram illustrating an example of a bird's eye view generated based on the posture parameters before being corrected by the parameter adjusting unit 15. FIG. 21 is a diagram illustrating an example of a bird's eye view output by the camera system according to the second embodiment. 20 and 21, enlarged views of the circled parts in the lower figure are respectively shown in the upper figures. In the bird's eye view of FIG. 20, there is a visual contradiction in a portion corresponding to the overlapping visual field region between adjacent cameras. However, it can be seen that the visual contradiction is resolved in the bird's eye view of FIG. Thus, according to the second embodiment, an output image having visual consistency can be generated.

[変形例]
上述したように、実施例1及び2におけるパラメータ推定装置10によれば、簡単にかつ正確に車載カメラ7の姿勢パラメータ(外部パラメータ)を推定し、校正することができる。しかしながら、実施例1及び2では地上のHパターンに対するカメラ姿勢が推定されるが、車両5に対するカメラ姿勢を必ずしも推定しているとは限らない。ところが、最終的な出力画像(鳥瞰図)は車両5を中心に示した画像であるため、その出力画像において車両5の側面が駐車ラインのサイドラインと平行とならない場合があり得る(図21の下図参照)。この場合、地上に対するカメラ姿勢に回転変位が生ずる可能性がある。
[Modification]
As described above, according to the parameter estimation device 10 in the first and second embodiments, the posture parameter (external parameter) of the in-vehicle camera 7 can be estimated and calibrated easily and accurately. However, in the first and second embodiments, the camera posture with respect to the ground H pattern is estimated, but the camera posture with respect to the vehicle 5 is not necessarily estimated. However, since the final output image (bird's eye view) is an image centered on the vehicle 5, the side surface of the vehicle 5 may not be parallel to the side line of the parking line in the output image (the lower diagram in FIG. 21). reference). In this case, rotational displacement may occur in the camera posture with respect to the ground.

そこで、上述の実施例1及び2におけるカメラシステム1を、ユーザとの対話型インタフェースを介してこのような車両5を中心とするカメラ姿勢が微調整され得るように構成してもよい。図22は、実施例2の変形例としてのカメラシステムの構成を示す模式図である。なお、図22には実施例2の変形例を示したが、実施例1にも同様の変形例を適用することが可能であることは言うまでもない。   Therefore, the camera system 1 in the first and second embodiments described above may be configured such that the camera posture around the vehicle 5 can be finely adjusted via an interactive interface with the user. FIG. 22 is a schematic diagram illustrating a configuration of a camera system as a modification of the second embodiment. Although FIG. 22 shows a modification of the second embodiment, it is needless to say that the same modification can be applied to the first embodiment.

本変形例では、周辺画像生成装置20に微調整処理部25が設けられる。微調整処理部25は、例えば、周辺画像生成装置20内のROMに格納されたプログラムがCPUで実行されることにより実現される。微調整処理部25は、周辺画像生成装置20が生成した
鳥瞰図のような出力画像にユーザの操作メニューとして微調整用インタフェースを付加する。
In the present modification, the fine adjustment processing unit 25 is provided in the peripheral image generation apparatus 20. The fine adjustment processing unit 25 is realized, for example, by executing a program stored in a ROM in the peripheral image generation apparatus 20 by the CPU. The fine adjustment processing unit 25 adds an interface for fine adjustment as an operation menu of the user to an output image such as a bird's eye view generated by the peripheral image generation device 20.

運転者等のユーザは、表示装置30に表示された出力画像において車両5の側面が駐車ラインのサイドラインと平行となっていないと判断した場合には、その操作メニューとしての微調整用インタフェースを入力装置35を介して操作する。この微調整用インタフェースは、出力画像の中心を回転中心として、長方形の出力画像の縦の両サイドが、その画像に現れる車の両サイドと並行になるように、出力画像を時計回り又は反時計周りに回転する角度を変えることができるインタフェースである。なお、このインタフェースの形態は限定されない。   When a user such as a driver determines that the side surface of the vehicle 5 is not parallel to the side line of the parking line in the output image displayed on the display device 30, an interface for fine adjustment as the operation menu is displayed. Operation is performed via the input device 35. This fine-tuning interface rotates the output image clockwise or counterclockwise so that the vertical side of the rectangular output image is parallel to both sides of the car appearing in the image, with the center of the output image as the rotation center. It is an interface that can change the angle of rotation around. Note that the form of this interface is not limited.

微調整処理部25は、入力装置35から得られるデータに基づいてユーザ操作に対応する回転角度を取得し、この回転角度をパラメータ推定装置10で推定された姿勢パラメータの回転行列に反映させる。これにより、周辺画像生成装置20は、この更新された姿勢パラメータを用いて再度出力画像を生成し、表示装置30へ出力させる。   The fine adjustment processing unit 25 acquires the rotation angle corresponding to the user operation based on the data obtained from the input device 35, and reflects this rotation angle in the rotation matrix of the posture parameter estimated by the parameter estimation device 10. Accordingly, the peripheral image generation device 20 generates an output image again using the updated posture parameter and outputs the output image to the display device 30.

当該ユーザは、表示装置30の表示部に表示される出力画像を見ながら、回転角度を当該インタフェースを用いて車両5の側面が駐車ラインのサイドラインと平行となるように調整する。   While viewing the output image displayed on the display unit of the display device 30, the user adjusts the rotation angle using the interface so that the side surface of the vehicle 5 is parallel to the side line of the parking line.

図23は、本変形例において微調整された姿勢パラメータを用いて生成された出力画像の例を示す図である。図23には、図21の下図に示す出力画像内における車両5の傾きが調整されていることが示されている。   FIG. 23 is a diagram illustrating an example of an output image generated using the attitude parameter finely adjusted in the present modification. FIG. 23 shows that the inclination of the vehicle 5 in the output image shown in the lower diagram of FIG. 21 is adjusted.

このように本変形例によれば、このようなユーザとの対話型インタフェースを提供することにより、車両5に対するカメラ姿勢パラメータについても正確に決めることができ、一層正確な姿勢パラメータを取得することが可能となる。   As described above, according to this modification, by providing such an interactive interface with the user, it is possible to accurately determine the camera posture parameter with respect to the vehicle 5 and to obtain a more accurate posture parameter. It becomes possible.

また、上述の各実施例では、車載カメラ1台及び3台を用いた形態を示したが、本発明は車載カメラの台数を限定するものではない。車両5の前方に設置されたカメラを含む4台の車載カメラを用いる形態であってもよいし、それ以上の台数のカメラを用いる形態であってもよい。   In each of the above-described embodiments, the form using one and three in-vehicle cameras is shown, but the present invention does not limit the number of in-vehicle cameras. The form using four vehicle-mounted cameras including the camera installed ahead of the vehicle 5 may be sufficient, and the form using the camera of the number more than that may be sufficient.

また、上述の各実施例では、地上に付された駐車ラインを実世界における特定パターン(Hパターン)として利用する例を示したが、本発明はこのような形態に限定するものではない。予め少なくとも2本の平行な線分(以降、平行線群と表記する)及びこれらに垂直な1本の線分(以降、垂直線と表記する)から構成されるとして知られているものであり、車載カメラ7で撮像可能なものであれば、例えば、建物の壁面と地面、壁面と天井面、そのような形状を有する模型などが利用されてもよい。   Moreover, although the example which utilizes the parking line attached | subjected on the ground as a specific pattern (H pattern) in the real world was shown in each above-mentioned Example, this invention is not limited to such a form. It is known in advance as being composed of at least two parallel line segments (hereinafter referred to as a parallel line group) and one line segment perpendicular thereto (hereinafter referred to as a vertical line). For example, a wall surface and a ground surface of a building, a wall surface and a ceiling surface, and a model having such a shape may be used as long as the vehicle-mounted camera 7 can capture an image.

1 カメラシステム
5 車両
7、7B、7L、7R 車載カメラ(リアカメラ、左カメラ、右カメラ)
10 パラメータ推定装置
11、11B、11L、11R 特定パターン取得部
12、12B、12L、12R 消失点決定部
13、13B、13L、13R パラメータ推定部
20 周辺画像生成装置
25 微調整処理部
30 表示装置
35 入力装置
1 Camera system 5 Vehicle 7, 7B, 7L, 7R Car-mounted camera (rear camera, left camera, right camera)
10 parameter estimation device 11, 11B, 11L, 11R specific pattern acquisition unit 12, 12B, 12L, 12R vanishing point determination unit 13, 13B, 13L, 13R parameter estimation unit 20 peripheral image generation device 25 fine adjustment processing unit 30 display device 35 Input device

Claims (8)

半球以上の視野を有する広角カメラにより得られる広角画像から、実空間における、相互に平行な少なくとも2つの第1直線及び第2直線と、該第1直線及び該第2直線と垂直な関係を有する1つの第3直線とから構成される特定パターンに対応する各線分をそれぞれ取得するパターン取得手段と、
前記パターン取得手段により取得された前記特定パターンに対応する各線分を用いて前記広角画像に対する2組の消失点ペアを決定する決定手段と、
前記決定手段で決定された2組の消失点ペアを用いて地面に対する前記広角カメラの姿勢パラメータを推定する推定手段と、
を備えることを特徴とするカメラ姿勢パラメータ推定装置。
From a wide-angle image obtained by a wide-angle camera having a field of view larger than a hemisphere, at least two first straight lines and second straight lines that are parallel to each other in real space, and have a relationship perpendicular to the first straight lines and the second straight lines Pattern acquisition means for acquiring each line segment corresponding to a specific pattern composed of one third straight line;
Determining means for determining two vanishing point pairs for the wide-angle image using each line segment corresponding to the specific pattern acquired by the pattern acquiring means;
Estimating means for estimating posture parameters of the wide-angle camera with respect to the ground using the two vanishing point pairs determined by the determining means;
A camera posture parameter estimation apparatus comprising:
前記決定手段は、前記特定パターンに対応する各線分のうち前記第1直線に対応する線分と前記第2直線に対応する線分とを用いて、前記広角画像が前記広角カメラの内部パラメータを用いてマッピングされた球面画像に対する1組の消失点ペアを前記広角画像の1組の消失点ペアとして決定し、この決定された1つの消失点とその球面画像の中心とを結ぶ線を法線とする平面から1つの消失線を決定し、その平面と平行な関係となる前記第3直線のその球面画像への投影平面からもう1つの消失線を決定し、決定された2つの消失線の交点から更に1組の消失点ペアを決定する、
ことを特徴とする請求項1に記載のカメラ姿勢パラメータ推定装置。
The determining means uses the line segment corresponding to the first straight line and the line segment corresponding to the second straight line among the line segments corresponding to the specific pattern, so that the wide-angle image has an internal parameter of the wide-angle camera. A set of vanishing point pairs for the spherical image mapped by using is determined as one set of vanishing point pair of the wide-angle image, and a line connecting the determined one vanishing point and the center of the spherical image is a normal line. One vanishing line is determined from the plane to be determined, another vanishing line is determined from the projection plane of the third straight line that is parallel to the plane onto the spherical image, and the two vanishing lines are determined. Determine one more vanishing point pair from the intersection,
The camera posture parameter estimation apparatus according to claim 1.
前記パターン取得手段は、前記第1直線及び前記第2直線、並びに、該第1直線及び該第2直線と垂直な関係を有す前記第3直線とは異なる第4直線から構成される他の特定パターンを形成し得る各線分を更にそれぞれ取得し、
前記決定手段は、前記第4直線を用いて前記第3直線と同様に新たな1組の消失点ペアを決定し、この新たに決定された1組の消失点ペアと、前記第3直線を用いて決定された1組の消失点ペアとの平均により1組の消失点ペアを決定する、
ことを特徴とする請求項1又は2に記載のカメラ姿勢パラメータ推定装置。
The pattern acquisition means includes the first straight line and the second straight line, and a fourth straight line different from the third straight line having a perpendicular relationship with the first straight line and the second straight line. Each line segment that can form a specific pattern is further acquired,
The determining means determines a new set of vanishing point pairs using the fourth straight line in the same manner as the third straight line, and determines the newly determined one set of vanishing point pair and the third straight line. Determine one vanishing point pair by averaging with one set of vanishing point pair determined using
The camera posture parameter estimation apparatus according to claim 1 or 2.
前記パターン取得手段は、複数の広角カメラから得られる各広角画像からそれぞれ、前記特定パターンに対応する各線分を取得し、
前記決定手段は、2組の消失点ペアを前記各広角画像についてそれぞれ決定し、
前記推定手段は、前記各広角画像に対する各2組の消失点ペアをそれぞれ用いて、前記各広角カメラの姿勢パラメータをそれぞれ推定し、
前記カメラ姿勢パラメータ推定装置は、
前記複数の広角カメラのうち重複する視野領域を有する少なくとも2つの隣接広角カメラから得られる各広角画像内のその重複する視野領域に対応する画像領域を前記推定手段により推定されたその隣接広角カメラの各姿勢パラメータを用いて特定し、この特定された各画像領域の画像情報を用いてその隣接広角カメラの各姿勢パラメータを補整する補整手段、
を更に備えることを特徴とする請求項1から3のいずれか1項に記載のカメラ姿勢パラメータ推定装置。
The pattern acquisition means acquires each line segment corresponding to the specific pattern from each wide-angle image obtained from a plurality of wide-angle cameras,
The determining means determines two vanishing point pairs for each of the wide-angle images,
The estimation means estimates the attitude parameters of the wide-angle cameras using the two vanishing point pairs for the wide-angle images,
The camera posture parameter estimation device includes:
Among the plurality of wide-angle cameras, an image area corresponding to the overlapping field area in each wide-angle image obtained from at least two adjacent wide-angle cameras having overlapping field areas is estimated by the estimating unit. A correction means for specifying each posture parameter and correcting each posture parameter of the adjacent wide-angle camera using the image information of each specified image region;
The camera posture parameter estimation apparatus according to claim 1, further comprising:
前記補整手段は、前記特定された各画像領域の画像データ間の相関値が最大化される値となるように前記隣接広角カメラの各姿勢パラメータを補整することを特徴とする請求項4に記載のカメラ姿勢パラメータ推定装置。   The correction means corrects each posture parameter of the adjacent wide-angle camera so that a correlation value between image data of each specified image region becomes a value that is maximized. Camera posture parameter estimation device. 車両の側面及び後部に少なくとも設置され半球以上の視野を有する複数の広角カメラと各広角カメラの姿勢パラメータをそれぞれ推定するパラメータ推定装置と前記各広角カメラから得られる各広角画像から画像データを生成する画像生成装置とを含むカメラシステ
ムにおいて、
前記パラメータ推定装置は、
前記複数の広角カメラによりそれぞれ得られる各広角画像から、実空間における、相互に平行な少なくとも2つの第1直線及び第2直線と、該第1直線及び該第2直線と垂直な関係を有する1つの第3直線とから構成される特定パターンに対応する各線分をそれぞれ取得するパターン取得手段と、
前記パターン取得手段により取得された前記特定パターンに対応する各線分を用いて前記各広角画像に対する2組ずつの消失点ペアをそれぞれ決定する決定手段と、
前記決定手段で決定された2組ずつの消失点ペアをそれぞれ用いて地面に対する前記各広角カメラの姿勢パラメータをそれぞれ推定する推定手段と、
を備え、
前記画像生成装置は、
前記パラメータ推定装置により推定された前記複数の広角カメラの各姿勢パラメータを用いて、前記複数の広角画像から前記複数の広角カメラが搭載された車両を中心とする鳥瞰図を示す画像データを生成する生成手段と、
前記生成手段により生成された画像データに応じた鳥瞰図を参照したユーザにより入力されるその鳥瞰図における車両の傾き情報を取得する傾き情報取得手段と、
前記傾き情報を前記複数の広角カメラの各姿勢パラメータに反映させる反映手段と、
を備えることを特徴とするカメラシステム。
A plurality of wide-angle cameras installed at least on the side and rear of the vehicle and having a field of view larger than a hemisphere, a parameter estimation device for estimating posture parameters of each wide-angle camera, and image data generated from each wide-angle image obtained from each wide-angle camera In a camera system including an image generation device,
The parameter estimation device includes:
From each wide-angle image respectively obtained by the plurality of wide-angle cameras, at least two first straight lines and second straight lines that are parallel to each other in a real space, and 1 that is perpendicular to the first straight lines and the second straight lines Pattern acquisition means for acquiring each line segment corresponding to a specific pattern composed of three third straight lines,
Determining means for determining two vanishing point pairs for each wide-angle image using each line segment corresponding to the specific pattern acquired by the pattern acquiring means;
Estimating means for estimating posture parameters of the wide-angle cameras with respect to the ground using the two vanishing point pairs determined by the determining means,
With
The image generation device includes:
Generation that generates image data indicating a bird's-eye view centered on a vehicle on which the plurality of wide-angle cameras are mounted, from the plurality of wide-angle images, using the posture parameters of the plurality of wide-angle cameras estimated by the parameter estimation device. Means,
Inclination information acquisition means for acquiring vehicle inclination information in the bird's-eye view input by the user with reference to the bird's-eye view corresponding to the image data generated by the generation means;
Reflecting means for reflecting the tilt information on each posture parameter of the plurality of wide-angle cameras;
A camera system comprising:
コンピュータが、
半球以上の視野を有する広角カメラにより得られる広角画像から、実空間における、相互に平行な少なくとも2つの第1直線及び第2直線と、該第1直線及び該第2直線と垂直な関係を有する1つの第3直線とから構成される特定パターンに対応する各線分をそれぞれ取得し、
前記取得された前記特定パターンを形成し得る各線分を用いて前記広角画像に対する2組の消失点ペアを決定し、
前記決定された2組の消失点ペアを用いて地面に対する前記広角カメラの姿勢パラメータを推定する、
ことを特徴とするカメラ姿勢パラメータ推定方法。
Computer
From a wide-angle image obtained by a wide-angle camera having a field of view larger than a hemisphere, at least two first straight lines and second straight lines that are parallel to each other in real space, and have a relationship perpendicular to the first straight lines and the second straight lines Obtain each line segment corresponding to a specific pattern composed of one third straight line,
Determining two vanishing point pairs for the wide-angle image using each line segment that can form the acquired specific pattern;
Estimating the wide-angle camera attitude parameters with respect to the ground using the determined two vanishing point pairs;
A camera posture parameter estimation method characterized by the above.
半球以上の視野を有する広角カメラにより得られる広角画像から、実空間における、相互に平行な少なくとも2つの第1直線及び第2直線と、該第1直線及び該第2直線と垂直な関係を有する1つの第3直線とから構成される特定パターンに対応する各線分をそれぞれ取得し、
前記取得された前記特定パターンを形成し得る各線分を用いて前記広角画像に対する2組の消失点ペアを決定し、
前記決定された2組の消失点ペアを用いて地面に対する前記広角カメラの姿勢パラメータを推定する、
ことをコンピュータに実行させることを特徴とするカメラ姿勢パラメータ推定プログラム。
From a wide-angle image obtained by a wide-angle camera having a field of view larger than a hemisphere, at least two first straight lines and second straight lines that are parallel to each other in real space, and have a relationship perpendicular to the first straight lines and the second straight lines Obtain each line segment corresponding to a specific pattern composed of one third straight line,
Determining two vanishing point pairs for the wide-angle image using each line segment that can form the acquired specific pattern;
Estimating the wide-angle camera attitude parameters with respect to the ground using the determined two vanishing point pairs;
A camera posture parameter estimation program that causes a computer to execute
JP2010084819A 2010-04-01 2010-04-01 Camera posture parameter estimation device Expired - Fee Related JP5455124B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010084819A JP5455124B2 (en) 2010-04-01 2010-04-01 Camera posture parameter estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010084819A JP5455124B2 (en) 2010-04-01 2010-04-01 Camera posture parameter estimation device

Publications (2)

Publication Number Publication Date
JP2011215063A JP2011215063A (en) 2011-10-27
JP5455124B2 true JP5455124B2 (en) 2014-03-26

Family

ID=44944937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010084819A Expired - Fee Related JP5455124B2 (en) 2010-04-01 2010-04-01 Camera posture parameter estimation device

Country Status (1)

Country Link
JP (1) JP5455124B2 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5783569B2 (en) * 2011-11-22 2015-09-24 国立大学法人鳥取大学 Straight line detection device, straight line detection method, straight line detection program, and imaging system
JP5898475B2 (en) * 2011-11-28 2016-04-06 クラリオン株式会社 In-vehicle camera system, calibration method thereof, and calibration program thereof
US9123135B2 (en) * 2012-06-14 2015-09-01 Qualcomm Incorporated Adaptive switching between vision aided INS and vision only pose
WO2014142367A1 (en) * 2013-03-13 2014-09-18 엘지전자 주식회사 Electronic device and method for controlling same
CN103810697A (en) * 2013-11-01 2014-05-21 云南大学 Calibration of parabolic refraction and reflection vidicon internal parameters by utilizing four unparallel straight lines in space
KR101574195B1 (en) 2014-02-14 2015-12-03 브이앤아이 주식회사 Auto Calibration Method for Virtual Camera based on Mobile Platform
US9317921B2 (en) 2014-07-10 2016-04-19 Qualcomm Incorporated Speed-up template matching using peripheral information
KR102227850B1 (en) * 2014-10-29 2021-03-15 현대모비스 주식회사 Method for adjusting output video of rear camera for vehicles
EP3057062A1 (en) * 2015-02-16 2016-08-17 Application Solutions (Electronics and Vision) Limited Method and device for stabilization of a surround view image
EP3086284A1 (en) * 2015-04-23 2016-10-26 Application Solutions (Electronics and Vision) Limited Camera extrinsic parameters estimation from image lines
JP6525195B2 (en) * 2015-06-09 2019-06-05 学校法人 中央大学 Method of estimating internal parameters of fisheye camera, estimation device, and estimation program
WO2017122552A1 (en) * 2016-01-15 2017-07-20 ソニー株式会社 Image processing device and method, program, and image processing system
KR102326184B1 (en) * 2017-11-27 2021-11-15 현대모비스 주식회사 Calibration apparatus and method of rear view camera
CN109300159B (en) 2018-09-07 2021-07-20 百度在线网络技术(北京)有限公司 Position detection method, device, equipment, storage medium and vehicle
JP7162489B2 (en) * 2018-10-10 2022-10-28 フォルシアクラリオン・エレクトロニクス株式会社 CALIBRATION DEVICE AND CALIBRATION METHOD
GB2579843A (en) * 2018-12-18 2020-07-08 Continental Automotive Gmbh Method and apparatus for calibrating the extrinsic parameter of an image sensor
JP7322692B2 (en) 2019-12-19 2023-08-08 株式会社Jvcケンウッド Image adjustment device, virtual reality image display system, and image adjustment method
JP7443751B2 (en) 2019-12-19 2024-03-06 株式会社Jvcケンウッド Virtual reality image display system and control method for virtual reality image display system
JP7443750B2 (en) 2019-12-19 2024-03-06 株式会社Jvcケンウッド Virtual reality image display system and control method for virtual reality image display system
JP7443749B2 (en) 2019-12-19 2024-03-06 株式会社Jvcケンウッド Image adjustment device, virtual reality image display system, and image adjustment method
CN111223150A (en) * 2020-01-15 2020-06-02 电子科技大学 Vehicle-mounted camera external parameter calibration method based on double vanishing points
CN113012226A (en) * 2021-03-22 2021-06-22 浙江商汤科技开发有限公司 Camera pose estimation method and device, electronic equipment and computer storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3986360B2 (en) * 2002-05-14 2007-10-03 松下電器産業株式会社 Camera calibration device
JP2005275789A (en) * 2004-03-24 2005-10-06 Japan Science & Technology Agency Three-dimensional structure extraction method
JP4825980B2 (en) * 2007-03-06 2011-11-30 国立大学法人岩手大学 Calibration method for fisheye camera.
JP5105481B2 (en) * 2008-05-27 2012-12-26 国立大学法人鳥取大学 Lane detection device, lane detection method, and lane detection program

Also Published As

Publication number Publication date
JP2011215063A (en) 2011-10-27

Similar Documents

Publication Publication Date Title
JP5455124B2 (en) Camera posture parameter estimation device
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
JP5739584B2 (en) 3D image synthesizing apparatus and method for visualizing vehicle periphery
JP5491235B2 (en) Camera calibration device
JP5898475B2 (en) In-vehicle camera system, calibration method thereof, and calibration program thereof
CN107465890B (en) Image processing device for vehicle
CN112655024B (en) Image calibration method and device
JP6767998B2 (en) Estimating external parameters of the camera from the lines of the image
US10810762B2 (en) Image processing apparatus
JP6891954B2 (en) Object detection device, object detection method, and program
JP2013001366A (en) Parking support device and parking support method
KR101583663B1 (en) Method for generating calibration indicator of camera for vehicle
JP2011064566A (en) Distance estimation apparatus
JP2023505891A (en) Methods for measuring environmental topography
TW201605247A (en) Image processing system and method
JP2011254128A (en) Plane view generating device and plane view generating method
JP2007049276A (en) On-vehicle panorama camera system
CN112802109B (en) Method for generating aerial view panorama of automobile
JP2013024712A (en) Method and system for calibrating multiple camera
KR101331893B1 (en) Vehicle Installed Camera Extrinsic Parameter Estimation Method and Apparatus
KR101293263B1 (en) Image processing apparatus providing distacnce information in a composite image obtained from a plurality of image and method using the same
JP7196920B2 (en) Driving support device, driving support method, and program
JP5580062B2 (en) Obstacle detection alarm device
JP2010004227A (en) Imaging apparatus
Okutsu et al. Generation of Overhead View Images by Estimating Intrinsic and Extrinsic Camera Parameters of Multiple Fish-Eye Cameras.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131227

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees