JP5455124B2 - Camera posture parameter estimation device - Google Patents
Camera posture parameter estimation device Download PDFInfo
- Publication number
- JP5455124B2 JP5455124B2 JP2010084819A JP2010084819A JP5455124B2 JP 5455124 B2 JP5455124 B2 JP 5455124B2 JP 2010084819 A JP2010084819 A JP 2010084819A JP 2010084819 A JP2010084819 A JP 2010084819A JP 5455124 B2 JP5455124 B2 JP 5455124B2
- Authority
- JP
- Japan
- Prior art keywords
- wide
- camera
- angle
- image
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、広角カメラの姿勢パラメータ推定技術に関する。 The present invention relates to a posture parameter estimation technique for a wide-angle camera.
近年、運転操作の安全性を高めることを目的として、魚眼カメラ等のような広角レンズを用いた複数のカメラを搭載し、車両の周囲を死角なくモニタリングするカメラシステムを搭載する車両が存在する。このようなカメラシステムは、車両の複数箇所に設置された各カメラによって撮影された画像を用いて、車両の周辺画像を生成し、生成された画像を表示装置に表示させる。表示装置に表示される周辺画像を見ることにより、運転者は、容易かつ安全に運転操作をすることができる。 In recent years, for the purpose of improving the safety of driving operations, there are vehicles equipped with a camera system equipped with a plurality of cameras using wide-angle lenses such as fish-eye cameras and the like and monitoring the surroundings of the vehicle without blind spots. . Such a camera system generates a surrounding image of the vehicle using images taken by each camera installed at a plurality of locations of the vehicle, and displays the generated image on a display device. By viewing the peripheral image displayed on the display device, the driver can easily and safely drive the vehicle.
車両内部の表示装置の表示領域は大きさに制限があるため、各カメラで撮影された複数の画像から生成される周辺画像を運転者にとって見易く瞬時に把握可能に表示させることは重要である。このような課題を解決する手法が例えば以下の特許文献1により提案されている。
Since the display area of the display device inside the vehicle is limited in size, it is important to display a peripheral image generated from a plurality of images photographed by each camera so that the driver can easily see and instantly understand. For example,
また、上述のようなカメラシステムにおいて、車両の周辺画像として、車両を上空から見下ろしたように描いたトップビュー(以降、鳥瞰図とも表記する)を生成するシステムが存在する。鳥瞰図によれば、運転者は、死角なく、車両の周囲の状況を瞬時に把握することができる。 In addition, in the camera system as described above, there is a system that generates a top view (hereinafter also referred to as a bird's-eye view) depicting a vehicle as viewed from above, as a surrounding image of the vehicle. According to the bird's-eye view, the driver can instantly grasp the situation around the vehicle without blind spots.
しかしながら、複数の魚眼カメラを持つカメラシステムにおいて鳥瞰図を生成するためには、予め、各魚眼カメラをそれぞれ校正する必要がある。 However, in order to generate a bird's eye view in a camera system having a plurality of fisheye cameras, it is necessary to calibrate each fisheye camera in advance.
校正の対象となり得るカメラのパラメータは、一般的には、内部パラメータ及び外部パラメータに区別される。内部パラメータには、主点(principal point)、焦点距離(focal length)、レンズ歪み(lens distortion)等が含まれる。このような内部パラメータは、カメラの環境で変化しないため、予め測定され製造プロセス等において設定される。 Camera parameters that can be calibrated are generally classified into internal parameters and external parameters. Internal parameters include principal point, focal length, lens distortion, and the like. Such internal parameters do not change in the camera environment, and are measured in advance and set in a manufacturing process or the like.
一方、外部パラメータはワールド座標系(world coordinate system)に対するカメラ
の方向(orientation)と位置(position)であり、カメラ姿勢(pose)パラメータとも
呼ばれる。このようなカメラ姿勢パラメータを校正するための手法は各種提案されている。例えば、車のボンネット(hood)上に置かれた複数のマーカを用いて自動車のアプリケーションにおけるステレオビジョンシステムを較正する手法が提案されている(下記非特許文献1参照)。また、車両の前の地面に置かれた複数の円パターンを用いることにより外部パラメータを校正することが提案されている(下記非特許文献2参照)。更に、車載カメラで検出された平行の車線マーキングを用いることにより前方カメラの方向を校正する方法が提案されている(下記非特許文献3参照)。
On the other hand, the external parameters are the orientation and position of the camera with respect to the world coordinate system and are also called camera pose parameters. Various methods for calibrating such camera posture parameters have been proposed. For example, a technique for calibrating a stereo vision system in an automobile application using a plurality of markers placed on a hood of a car has been proposed (see Non-Patent
しかしながら、上述のような従来のカメラ較正方法は、従来のピンホールカメラモデルに基づいた限定された視野(FOV(Field Of View))の一般的なカメラに対して適用される方法であり、全方向カメラや魚眼カメラのような半球より広視野の広角カメラにそのまま適用することができない。 However, the conventional camera calibration method as described above is a method applied to a general camera with a limited field of view (FOV (Field Of View)) based on the conventional pinhole camera model. It cannot be directly applied to a wide-angle camera having a wider field of view than a hemisphere such as a direction camera or a fish-eye camera.
そこで、従来の広角カメラを用いた車載カメラシステムでは、図24に示されるように、地上の予め決められた正確な位置に設置された複数のマーカを用いてカメラの姿勢パラメータを校正する方法が採用されている。図24は、車両の後部に搭載された1つの広角カメラの姿勢パラメータを校正するための従来手法を示す図である。図24の例によれば、車両の幅方向の中心線上の車両後部から50センチメートル(cm)、1メートル(m)、2(m)の各位置にそれぞれ1つずつのマーカを設置し、更に、車両の両サイドの面と平行で車両幅間隔離された2つの線上の車両後部から1(m)の各位置に1つずつのマーカを設置する必要がある。 Therefore, in a vehicle-mounted camera system using a conventional wide-angle camera, as shown in FIG. 24, there is a method of calibrating camera posture parameters using a plurality of markers placed at predetermined accurate positions on the ground. It has been adopted. FIG. 24 is a diagram showing a conventional method for calibrating the attitude parameter of one wide-angle camera mounted on the rear part of the vehicle. According to the example of FIG. 24, one marker is installed at each position of 50 centimeters (cm), 1 meter (m), and 2 (m) from the rear of the vehicle on the center line in the width direction of the vehicle. Furthermore, it is necessary to install one marker at each position 1 (m) from the rear of the vehicle on two lines parallel to the surfaces on both sides of the vehicle and separated from each other by the vehicle width.
このように従来手法では、複数のマーカを準備しなければならず、かつ、予め決められた正確な位置に各マーカを配置しなければならないため、カメラの校正に多大なる負担がかかっていた。 As described above, in the conventional method, since a plurality of markers must be prepared and each marker must be arranged at a predetermined accurate position, a great burden is imposed on the calibration of the camera.
本発明の一態様に係る課題は、このような問題点に鑑み、広角カメラの姿勢パラメータを容易にかつ正確に推定する技術を実現することにある。 In view of such a problem, an object of one embodiment of the present invention is to realize a technique for easily and accurately estimating a posture parameter of a wide-angle camera.
本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。 Each aspect of the present invention employs the following configurations in order to solve the above-described problems.
第1の態様は、カメラ姿勢パラメータ推定装置に関する。第1の態様に係るカメラ姿勢パラメータ推定装置は、半球以上の視野を有する広角カメラにより得られる広角画像から、実空間における、相互に平行な少なくとも2つの第1直線及び第2直線と、第1直線及び第2直線と垂直な関係を有する1つの第3直線とから構成される特定パターンを形成し得る各線分をそれぞれ取得するパターン取得手段と、このパターン取得手段により取得された特定パターンを形成し得る各線分を用いて上記広角画像に対する2組の消失点ペアを決定する決定手段と、この決定手段で決定された2組の消失点ペアを用いて地面に対する広角カメラの姿勢パラメータを推定する推定手段と、を備える。 The first aspect relates to a camera posture parameter estimation device. The camera posture parameter estimation device according to the first aspect includes, from a wide-angle image obtained by a wide-angle camera having a field of view equal to or greater than a hemisphere, at least two first straight lines and second straight lines parallel to each other in real space; A pattern acquisition unit that acquires each line segment that can form a specific pattern composed of a straight line and a single third line that is perpendicular to the second line, and a specific pattern acquired by the pattern acquisition unit A determination unit that determines two vanishing point pairs for the wide-angle image using each possible line segment, and estimates a posture parameter of the wide-angle camera with respect to the ground using the two vanishing point pairs determined by the determination unit. And an estimation means.
第1の態様では、広角カメラから得られる広角画像から実空間における特定パターンに対応する各線分が取得され、この取得された各線分から広角画像に対する2組の消失点ペアが決定され、この2組の消失点ペアから広角カメラの姿勢パラメータが推定される。 In the first aspect, each line segment corresponding to a specific pattern in the real space is acquired from the wide-angle image obtained from the wide-angle camera, and two vanishing point pairs for the wide-angle image are determined from each acquired line segment. The attitude parameter of the wide-angle camera is estimated from the vanishing point pair.
従って、第1の態様によれば、当該広角カメラにより当該特定パターンが撮像されさえすれば、広角カメラの姿勢パラメータを容易にかつ正確に推定することができる。 Therefore, according to the first aspect, as long as the specific pattern is imaged by the wide-angle camera, the posture parameter of the wide-angle camera can be estimated easily and accurately.
当該特定パターンは、実空間における、相互に平行な少なくとも2つの第1直線及び第2直線と、第1直線及び第2直線と垂直な関係を有する1つの第3直線とから構成される。このような特定パターンは、駐車場の駐車ラインや建物の壁面のライン等のように一般的に実空間に存在するものが利用されればよいため、従来のようにカメラの校正に費やされる負担を大きく軽減させることができる。 The specific pattern includes at least two first straight lines and second straight lines parallel to each other in real space, and one third straight line having a relationship perpendicular to the first straight lines and the second straight lines. Such a specific pattern may be a pattern that is generally present in real space, such as a parking lot line of a parking lot or a wall surface of a building. Can be greatly reduced.
上記第1の態様において好ましくは、上記決定手段が、上記特定パターンに対応する各線分のうち第1直線に対応する線分と第2直線に対応する線分とを用いて、広角画像が広角カメラの内部パラメータを用いてマッピングされた球面画像に対する1組の消失点ペアを前記広角画像の1組の消失点ペアとして決定し、この決定された1つの消失点とその球面画像の中心とを結ぶ線を法線とする平面から1つの消失線を決定し、その平面と平行な関係となる第3直線のその球面画像への投影平面からもう1つの消失線を決定し、決定された2つの消失線の交点から更に1組の消失点ペアを決定するようにしてもよい。 Preferably, in the first aspect, the determination unit uses the line segment corresponding to the first straight line and the line segment corresponding to the second straight line among the line segments corresponding to the specific pattern to generate a wide angle image. One vanishing point pair for the spherical image mapped using the internal parameters of the camera is determined as one vanishing point pair of the wide-angle image, and the determined one vanishing point and the center of the spherical image are determined. One vanishing line is determined from a plane whose normal is the connecting line, and another vanishing line is determined from the projection plane onto the spherical image of the third straight line that is parallel to the plane. A further vanishing point pair may be determined from the intersection of two vanishing lines.
これにより、少ない情報で広角画像に対する2組の消失点ペアを決定することができ、正確に、カメラ姿勢パラメータを推定することができる。 Thereby, two vanishing point pairs for the wide-angle image can be determined with a small amount of information, and the camera posture parameters can be estimated accurately.
また、上記第1の態様において好ましくは、上記パターン取得手段が、第1直線及び第2直線、並びに、第1直線及び第2直線と垂直な関係を有す第3直線とは異なる第4直線から構成される他の特定パターンを形成し得る各線分を更にそれぞれ取得し、上記決定手段が、第4直線を用いて第3直線と同様に新たな1組の消失点ペアを決定し、この新たに決定された1組の消失点ペアと、第3直線を用いて決定された1組の消失点ペアとの平均により1組の消失点ペアを決定するようにしてもよい。 Preferably, in the first aspect, the pattern acquisition means is a fourth straight line different from the first straight line and the second straight line, and a third straight line having a relationship perpendicular to the first straight line and the second straight line. Further, each line segment that can form another specific pattern composed of the above is obtained, and the determining means determines a new pair of vanishing points using the fourth straight line in the same manner as the third straight line. One vanishing point pair may be determined by averaging the newly determined one vanishing point pair and the one vanishing point pair determined using the third straight line.
このようにすれば、一層正確に2組の消失点ペアを決定することができる。 In this way, two vanishing point pairs can be determined more accurately.
また、上記第1の態様において、複数の広角カメラを対象に各広角カメラの姿勢パラメータを推定することも可能である。この場合、上記パターン取得手段が、複数の広角カメラから得られる各広角画像からそれぞれ、特定パターンに対応する各線分を取得し、上記決定手段が、2組の消失点ペアを前記各広角画像についてそれぞれ決定し、上記推定手段が、各広角画像に対する各2組の消失点ペアをそれぞれ用いて、各広角カメラの姿勢パラメータをそれぞれ推定する。そして、この態様においては、当該第1の態様に係るカメラ姿勢パラメータ推定装置が、複数の広角カメラのうち重複する視野領域を有する少なくとも2つの隣接広角カメラから得られる各広角画像内のその重複する視野領域に対応する画像領域を上記推定手段により推定されたその隣接広角カメラの各姿勢パラメータを用いて特定し、この特定された各画像領域の画像情報を用いてその隣接広角カメラの各姿勢パラメータを補整する補整手段を更に備えるようにしてもよい。 In the first aspect, it is also possible to estimate the posture parameters of each wide-angle camera for a plurality of wide-angle cameras. In this case, the pattern acquisition unit acquires each line segment corresponding to the specific pattern from each wide-angle image obtained from a plurality of wide-angle cameras, and the determination unit selects two vanishing point pairs for each wide-angle image. The estimation means estimates the posture parameters of each wide-angle camera using each of the two vanishing point pairs for each wide-angle image. In this aspect, the camera posture parameter estimation apparatus according to the first aspect overlaps each other in a wide-angle image obtained from at least two adjacent wide-angle cameras having overlapping field areas among a plurality of wide-angle cameras. An image area corresponding to the visual field area is identified using each posture parameter of the adjacent wide-angle camera estimated by the estimation means, and each posture parameter of the adjacent wide-angle camera is identified using image information of each identified image area. You may make it further provide the correction means which corrects.
これによれば、複数の広角カメラに関する各姿勢パラメータが推定され、この推定された各姿勢パラメータが、重複する視野領域を有する少なくとも2つの隣接広角カメラの間の相対的情報により更に洗練される。よって、第1の態様によれば、複数の広角カメラの姿勢パラメータを正確に推定することが可能である。 According to this, each posture parameter regarding a plurality of wide-angle cameras is estimated, and each of these estimated posture parameters is further refined by relative information between at least two adjacent wide-angle cameras having overlapping visual field regions. Therefore, according to the first aspect, it is possible to accurately estimate the posture parameters of a plurality of wide-angle cameras.
また、この複数の広角カメラを対象とした態様において、上記補整手段が、特定された各画像領域の画像データ間の相関値が最大化される値となるように隣接広角カメラの各姿勢パラメータを補整するようにしてもよい。 Further, in the aspect targeting the plurality of wide-angle cameras, each of the posture parameters of the adjacent wide-angle cameras is set so that the correction means has a value that maximizes the correlation value between the image data of each identified image area. You may make it correct.
第2の態様は、複数の広角カメラと、上述のようなパラメータ推定装置と、各広角カメラから得られる各広角画像から画像データを生成する画像生成装置とを含むカメラシステムに関する。このカメラシステムでは、当該画像生成装置が、上述の第1の態様のような
パラメータ推定装置により推定された複数の広角カメラの各姿勢パラメータを用いて、複数の広角画像から前記複数の広角カメラが搭載された車両を中心とする鳥瞰図を示す画像データを生成する生成手段と、この生成手段により生成された画像データに応じた鳥瞰図を参照したユーザにより入力されるその鳥瞰図における車両の傾き情報を取得する傾き情報取得手段と、その傾き情報を複数の広角カメラの各姿勢パラメータに反映させる反映手段と、を備える。
A second aspect relates to a camera system including a plurality of wide-angle cameras, a parameter estimation device as described above, and an image generation device that generates image data from each wide-angle image obtained from each wide-angle camera. In this camera system, the image generation device uses the posture parameters of the plurality of wide-angle cameras estimated by the parameter estimation device as in the first aspect described above, and the plurality of wide-angle cameras are converted from a plurality of wide-angle images. Obtaining means for generating image data showing a bird's-eye view centered on the mounted vehicle and vehicle tilt information in the bird's-eye view inputted by the user with reference to the bird's-eye view corresponding to the image data generated by the generating means Tilt information obtaining means for reflecting the information, and reflecting means for reflecting the tilt information on the posture parameters of a plurality of wide-angle cameras.
第2の態様によれば、ユーザにより入力される傾き情報に基づいて車両の地面に対する傾きを複数の広角カメラの各姿勢パラメータに反映させることができ、一層適切な鳥瞰図を出力することができるようになり、車両の運転者に安全な運転操作を提供することができる。 According to the second aspect, the inclination of the vehicle with respect to the ground can be reflected on each posture parameter of the plurality of wide-angle cameras based on the inclination information input by the user, and a more appropriate bird's-eye view can be output. Thus, a safe driving operation can be provided to the driver of the vehicle.
なお、本発明の他の態様としては、以上の何れかの構成を実現するカメラ姿勢パラメータの推定方法であってもよいし、そのような方法を実行するプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体であってもよい。 As another aspect of the present invention, a camera posture parameter estimation method that realizes any one of the above-described configurations may be used, or a program that executes such a method may be used. It may also be a computer-readable storage medium that records various programs.
本発明の各態様によれば、広角カメラの姿勢パラメータを容易にかつ正確に校正する技術を提供することができる。 According to each aspect of the present invention, it is possible to provide a technique for easily and accurately calibrating attitude parameters of a wide-angle camera.
以下、本発明の一実施形態としてのパラメータ推定装置について具体例を挙げ説明する。実施形態としてのパラメータ推定装置は、車両に搭載され、その車両に設置された広角カメラの姿勢パラメータを推定する。なお、本実施形態におけるパラメータ推定装置は、搭載される車両の種類を限定するものではない。以下に挙げた各実施例はそれぞれ例示であり、本発明は以下の各実施例の構成に限定されない。 Hereinafter, a specific example of the parameter estimation apparatus as one embodiment of the present invention will be described. A parameter estimation device as an embodiment estimates a posture parameter of a wide-angle camera installed in a vehicle and installed in the vehicle. In addition, the parameter estimation apparatus in this embodiment does not limit the kind of vehicle mounted. Each Example given below is an illustration, respectively, and this invention is not limited to the structure of each following Example.
以下の各実施例では、駐車ラインが地面に付されている駐車場に本実施形態におけるパラメータ推定装置を搭載する車両が駐車している状態でカメラの姿勢パラメータが推定される例を示す。当該パラメータ推定装置によりパラメータ推定が行われる際には、当該車両が任意の駐車スペースに車両の進行方向と両サイドの駐車ラインとが略平行となるように駐車される。この略平行とは、完全な平行が好ましいが完全な平行でなくとも許容されることを意味する。以降、本実施形態におけるパラメータ推定装置によりパラメータ推定が行われる際の車両の姿勢を基本姿勢とも表記する。本実施形態におけるパラメータ推定装置は、基本姿勢で駐車される車両に設置されるカメラで撮影される駐車ラインを用いて車載カメラの姿勢パラメータを推定する。 In each of the following examples, an example is shown in which the posture parameter of the camera is estimated in a state where a vehicle equipped with the parameter estimation device in the present embodiment is parked in a parking lot where the parking line is attached to the ground. When parameter estimation is performed by the parameter estimation device, the vehicle is parked in an arbitrary parking space so that the traveling direction of the vehicle and the parking lines on both sides are substantially parallel. The term “substantially parallel” means that perfect parallelism is preferable, but it is acceptable even if not perfectly parallel. Hereinafter, the posture of the vehicle when parameter estimation is performed by the parameter estimation device in the present embodiment is also referred to as a basic posture. The parameter estimation apparatus according to the present embodiment estimates a posture parameter of an in-vehicle camera using a parking line photographed by a camera installed in a vehicle parked in a basic posture.
以下、実施形態としてのパラメータ推定装置の第1実施例について説明する。 Hereinafter, a first example of the parameter estimation apparatus as the embodiment will be described.
[システム構成]
図1は、実施例1におけるパラメータ推定装置を含むカメラシステムの構成を示す模式図である。図2は、実施例1におけるパラメータ推定装置が搭載される車両の上面図を示す模式図である。カメラシステム1は、図1に示されるように、車載カメラ7、実施例1におけるパラメータ推定装置10、周辺画像生成装置20、表示装置30等で構成される。カメラシステム1は、車両5に搭載され、車両5の周辺を映し出す画像(映像)を車両5の運転者に提供する。
[System configuration]
FIG. 1 is a schematic diagram illustrating a configuration of a camera system including a parameter estimation device according to the first embodiment. FIG. 2 is a schematic diagram illustrating a top view of a vehicle on which the parameter estimation device according to the first embodiment is mounted. As shown in FIG. 1, the
車載カメラ7は、図2に示されるように、車両5の後方部に1つ設置される。車載カメラ7は、魚眼レンズ等のような半球以上の視野を有する広角レンズを有する広角カメラである。車載カメラ7は、少なくとも車両5の後部より後方の領域(図2で示す長鎖線)を視野領域とする。車載カメラ7で撮像された映像の信号は、周辺画像生成装置20へ送られる。なお、本発明は、車載カメラ7を設置する厳密な位置を限定するものではない。
As shown in FIG. 2, one in-
周辺画像生成装置20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力インタフェース等で構成され、例え
ば、ソフトウェア的又はハードウェア的な起動指示に応じて電力が投入され起動される。周辺画像生成装置20は、ROMに記録されたプログラムを実行することにより、以下のような処理を実行する。
The peripheral
周辺画像生成装置20は、車載カメラ7から映像信号を受け、この映像信号から画像データを取得する。以降、車載カメラ7から得られる画像データを広角画像とも表記する。周辺画像生成装置20は、この広角画像を車載カメラ7の内部パラメータ及び外部パラメータを用いて変換することにより、車両5の周辺を映し出す画像データを生成する。この
画像データは、例えば、車載カメラ7の視野領域を車両5の上空から見下ろしたように見せる鳥瞰図として生成される。図3は、実施例1における広角画像の例を示す図であり、図4は、実施例1における出力画像(鳥瞰図)の例を示す図である。
The peripheral
車載カメラ7の内部パラメータは、製造時等に予め測定され、周辺画像生成装置20が読み出し可能なメモリに予め格納されている。一方で、外部パラメータ(姿勢パラメータ)は、その初期値が当該メモリに予め格納されており、任意のタイミングでパラメータ推定装置10により校正される。この任意のタイミングとは、例えば、電力投入開始時、ハードウェア的又はソフトウェア的な操作が行なわれた時などである。なお、本発明は、このような車載カメラ7の姿勢パラメータの校正タイミングを限定するものではない。
The internal parameters of the in-
表示装置30は、周辺画像生成装置20により生成された画像データを受け、図4に示すような鳥瞰図をディスプレイ(表示面)に表示させる。運転者は、この表示装置30の表示面に映し出された車両後方の映像を参照することにより、死角及び見え難い車両後方の状況を正確に認識することができ、結果、安全な運転操作を行うことができる。
The
本発明は、周辺画像生成装置20のハードウェア構成及び画像データの変換手法を限定するものではないため、上述のように説明を簡略化している。また、図1では、パラメータ推定装置10と周辺画像生成装置20とは別々のハードウェアとして実現される例が示されるが、両者はそれぞれソフトウェアモジュールとして実現されるようにしてもよい。
Since the present invention does not limit the hardware configuration of the peripheral
[装置構成]
パラメータ推定装置10は、特定パターン取得部11、消失点決定部12、パラメータ推定部13等を有する。これら各処理部はそれぞれ、ハードウェア回路として実現されてもよいし、ソフトウェアモジュールとして実現されてもよい。ソフトウェアモジュールとして実現される場合には、パラメータ推定装置10のCPUにおいてメモリに格納されるプログラムが実行されることにより実現される。なお、本発明は、このようなパラメータ推定装置10のハードウェア構成を限定するものではない。
[Device configuration]
The
パラメータ推定装置10は、上述したような任意のタイミングで起動され、車載カメラ7の姿勢パラメータを推定し、この推定された姿勢パラメータにより周辺画像生成装置20に格納される姿勢パラメータを更新する。パラメータ推定装置10は、起動されると、車載カメラ7から映像信号を受ける。
The
パラメータ推定装置10は、ピンホールカメラモデルでは半球以上の視野を持つ広角カメラで撮像された画像を扱うことができないため、車載カメラ7から取得される広角画像を球面カメラモデルを用いることにより処理する。つまり、パラメータ推定装置10は、広角画像を球面画像にマッピングする。
Since the pinhole camera model cannot handle an image captured by a wide-angle camera having a field of view larger than a hemisphere, the
図5は、画像平面とカメラレンズとの間の関連を示すモデルを示す図である。図5では、カメラ座標系における点P(X,Y,Z)の光線方向が球面座標(θ,φ)で示され、画像平面上の投影座標が(ri,φi)で示される。例えば、一般的な魚眼レンズに関しては、以下のような射影タイプが利用される。 FIG. 5 is a diagram showing a model showing the relationship between the image plane and the camera lens. In FIG. 5, the ray direction of the point P (X, Y, Z) in the camera coordinate system is indicated by spherical coordinates (θ, φ), and the projected coordinates on the image plane are indicated by (r i , φ i ). For example, the following projection types are used for general fisheye lenses.
等距離射影(Equidistant Projection):ri=fθ
直交射影(Orthogonal Projection):ri=f sinθ
立体射影(Stereographic Projection):ri=2f tan(θ/2)
等立体角射影(Equal Area Projection):ri=2f sin(θ/2)
実際のカメラは物理的には理想的な投影モデルには従わない。光軸が画像中心を通らないかもしれない。また、1ピクセルの縦及び横のサイズが等しくならず、実レンズの半径
方向歪み(radial distortion)及び偏心歪み(decentering distortion)が存在するか
もしれない。そこで、以下の(式1)及び(式2)で示すようなカメラ歪みモデルが利用される。以下の(式1)及び(式2)におけるθ、φ、ri、φiは図5で示すとおりであり、半径方向歪み及び偏心歪みの各パラメータが(k1,k3,k5,P1,P2)で示される。
Equidistant Projection: r i = fθ
Orthogonal Projection: r i = f sin θ
Stereographic Projection: r i = 2f tan (θ / 2)
Equal Area Projection: r i = 2f sin (θ / 2)
An actual camera does not physically follow an ideal projection model. The optical axis may not pass through the center of the image. In addition, the vertical and horizontal sizes of one pixel may not be equal, and there may be radial distortion and decentering distortion of the actual lens. Therefore, a camera distortion model as shown in the following (Expression 1) and (Expression 2) is used. In the following (Expression 1) and (Expression 2), θ, φ, r i , and φ i are as shown in FIG. 5, and parameters of radial strain and eccentric strain are (k 1 , k 3 , k 5 , P 1 , P 2 ).
光心(xC,yC)のシフトパラメータ、アスペクト比αが用いられることにより、画像平面上の投影座標(ri,φi)は、入力された広角画像の直交座標系での射影点の座標である(xf,yf)にマッピングされる。従って、カメラ座標系における点P(X,Y,Z)と広角画像上の点(xf,yf)との対応関係は以下の(式3)のように示される。 By using the shift parameter of the optical center (x C , y C ) and the aspect ratio α, the projection coordinates (r i , φ i ) on the image plane are projected points in the orthogonal coordinate system of the input wide-angle image. Are mapped to (x f , y f ). Accordingly, the correspondence relationship between the point P (X, Y, Z) in the camera coordinate system and the point (x f , y f ) on the wide-angle image is expressed as (Equation 3) below.
(式3)により、広角画像における任意の点がカメラ内部パラメータを用いることにより単位球面画像にマッピングされる。このような空間点の球面画像への投影は球面投影と呼ばれる。図6は、球面画像及び球面投影を示す図である。 According to (Expression 3), an arbitrary point in the wide-angle image is mapped to the unit spherical image by using the camera internal parameter. Such projection of spatial points on a spherical image is called spherical projection. FIG. 6 is a diagram showing a spherical image and a spherical projection.
点P(X,Y,Z)の球面画像座標系に関する座標がMC=[X Y Z]Tとすれば、単位球面画像における点Pの投影はm=[sinθcosφ sinθsinφ cosθ]Tとして表わすことができる。これにより、球面画像座標系における座標MCと投影座標mとの関係はm=λMC≒MCである。この関係は、mがスケール因子を除いてMCと等しいことを意味する。 If the coordinates of the point P (X, Y, Z) with respect to the spherical image coordinate system are M C = [X Y Z] T , the projection of the point P in the unit spherical image is expressed as m = [sin θ cos φ sin θ sin φ cos θ] T. Can do. Thus, the relationship between the coordinates M C and projected coordinates m in the spherical image coordinate system is m = λM C ≒ M C. This relationship, m means that equal to M C except the scale factor.
このような球面モデルでは、図7に示すように、直線Lは単位球面上に大円の円弧lとして投影される。図7は、直線Lの単位球面上への投影を示す図である。図7に示すnは、直線Lの投影平面の単位法線ベクトルとされる。ここで、点pが円弧l上にあると仮定し、点pがp=[sinθcosφ sinθsinφ cosθ]と示され、単位法線ベクトルnがn=[a b c]と示されると、直線の投影平面の方程式は以下の(式4)のようになる。ここで、θ及びφは、球面座標系における極角及び方位角である。 In such a spherical model, as shown in FIG. 7, the straight line L is projected as a great circular arc l on the unit spherical surface. FIG. 7 is a diagram illustrating the projection of the straight line L onto the unit sphere. 7 is a unit normal vector of the projection plane of the straight line L. Here, assuming that the point p is on the circular arc l, if the point p is expressed as p = [sin θ cos φ sin θ sin φ cos θ] and the unit normal vector n is expressed as n = [a b c], a straight line projection The equation of the plane is as follows (Equation 4). Here, θ and φ are a polar angle and an azimuth angle in the spherical coordinate system.
ここで、同じ直線に属している点は同じ投影平面に存在することから、球面空間におけるハフ変換は、球面画像中の空間直線の投影点を用いることにより、空間直線の投影平面の法線ベクトルを決定するのに利用され得る。 Here, since the points belonging to the same straight line exist on the same projection plane, the Hough transform in the spherical space is performed by using the projection point of the spatial straight line in the spherical image, and the normal vector of the projection line of the spatial straight line. Can be used to determine
以下、上述のような球面カメラモデルを用いて処理するパラメータ推定装置10の各処理部について説明する。
Hereinafter, each processing unit of the
特定パターン取得部11は、車載カメラ7から送られた映像信号を受信すると、この映像信号から広角画像を取得する。この広角画像には、図3に示すように複数の駐車ラインや駐車場のその他の風景が映し出されている。以降、車両5が基本姿勢で駐車されている場合における、車両5の進行方向と略平行な駐車ラインをサイドライン41と表記し、車両5の進行方向と略垂直な駐車ラインをリアライン42と表記する。なお、一般的な駐車場では、サイドライン41とリアライン42とは直行するように駐車ラインが引かれている。
When the specific
特定パターン取得部11は、このような広角画像から実空間における特定のパターンに対応する線分を検出する。この特定のパターンは、少なくとも2本の平行な線分(以降、平行線群と表記する)及びこれらに垂直な1本の線分(以降、垂直線と表記する)から構成される。この特定のパターンは、以降、各線分の形状に基づいてHパターンと表記する。特定パターン取得部11は、広角画像を内部パラメータを用いることにより単位球面画像にマッピングし、上述したような球面カメラモデルに基づくアルゴリズムを用いて上述のような平行線群に対応する広角画像内の各線分及び垂直線に対応する広角画像内の線分を検出する。なお、広角画像から線分を検出する手法については周知な手法(例えば、特開2009−288885号公報参照)を用いればよいため、ここでは説明を簡略化する。
The specific
特定パターン取得部11は、広角画像から複数のエッジ点を抽出し、各エッジ点について勾配方向(gradient direction)をそれぞれ計算する。この勾配方向とはエッジ点の輝度の勾配を示す。特定パターン取得部11は、算出された各勾配方向に基づいて、各エッジ点を2つのグループに分類する。1つのグループは、0度から180度までの勾配方向を持つエッジ点の集合であり、もう1つのグループは、残りの勾配方向を持つエッジ点の集合である。この分類処理により、例えば、広角画像に含まれる各駐車ラインの対向する各境界線がそれぞれ異なるグループに属することになる。
The specific
特定パターン取得部11は、各グループに属するエッジ点の集合からそれぞれ線分を抽出する。この線分の抽出には上述したように例えばハフ変換技術が利用される。特定パターン取得部11は、ハフ変換技術を用いて空間直線に対応する球面画像上の大円を抽出する。図8は、線分の検出例を示す図である。図8の例によれば、サイドライン41から抽出された境界線の線分41A及び41Bがそれぞれ異なるグループに分類される。同様に、リアライン42から抽出された境界線の線分42A及び42Bがそれぞれ異なるグループに分類される。
The specific
特定パターン取得部11は、抽出された線分のうち車両5に近く広角画像の縦方向(図8の縦方向)に長い線分を当該平行線群に対応する線分として特定し、車両5に近く横方
向(図8の横方向)に長い線分を当該垂直線に対応する線分として特定する。このとき、特定パターン取得部11は、口角画像の縦方向に長い線分については上記1つのグループに関し2本以上特定する。即ち、2本以上の各サイドラインからそれぞれ得られた線分が特定される。
The specific
図8によれば、例えば、特定パターン取得部11は、図面左側(車両5の右サイド)のサイドライン41から抽出された線分41Aと、図面右側(車両5の左サイド)のサイドライン41から抽出された線分41Aとを当該平行線群に対応する各線分として特定する。特定パターン取得部11は、更に、当該垂直線に対応する線分として線分42A及び42Bの少なくとも一方を特定する。特定パターン取得部11は、このように特定されたHパターンに対応する各線分についての情報を当該広角画像と共に消失点決定部12へ送る。特定パターン取得部11は、上記(式4)を用いて決定される各線分の投影平面の法線ベクトルを各線分についての情報として消失点決定部12に送るようにしてもよい。この法線ベクトルの決定は最小2乗法が利用される。
According to FIG. 8, for example, the specific
消失点決定部12は、特定パターン取得部11から得られるHパターンに対応する各線分についての情報を用いて、当該広角画像内の2組の消失点ペアを決定する。具体的には、まず、消失点決定部12は、当該平行線群に対応する各線分から1対の消失点ペアを決定する。次に、消失点決定部12は、当該垂直線に対応する線分と当該平行線群に対応する各線分との関係から1対の消失点ペアを決定する。図9及び10は、消失点決定部12における消失点決定のアルゴリズムを示す図である。
The vanishing point determination unit 12 determines two vanishing point pairs in the wide-angle image using information about each line segment corresponding to the H pattern obtained from the specific
図9には、仮想球面カメラによって観察された実空間中の3本の平行線群が示されている。図9に示すように、これら平行線群は、球面画像中の1対の消失点をもたらす。 FIG. 9 shows a group of three parallel lines in real space observed by a virtual spherical camera. As shown in FIG. 9, these parallel line groups provide a pair of vanishing points in the spherical image.
消失線は、無限空間における平行な平面群の交わるところとして定義される。球面画像では、この消失線は、図10に示すように、平行平面の交差する箇所であり球面画像の中心を通る大円に対応する。そして、平行平面と平行な線の一対の消失点は、その線と当該平面の消失線との交差点として決定することができる。つまり、1つの線における一対の消失点は、その線を含む平行線群、又は、その線と平行な平面の消失線によって決定され得る。 Vanishing lines are defined as the intersection of parallel plane groups in infinite space. In the spherical image, this vanishing line corresponds to a great circle that passes through the center of the spherical image, as shown in FIG. A pair of vanishing points of a line parallel to the parallel plane can be determined as an intersection between the line and the vanishing line of the plane. That is, a pair of vanishing points in one line can be determined by a parallel line group including the line or a vanishing line on a plane parallel to the line.
図11は、球面画像におけるHパターンと消失点との関係を示す図である。図11には、2つの平行線lS1及びlS2、並びに、その2つの線に垂直な別の線lRから構成されるHパターンが示されている。消失点決定部12は、Hパターン中の2つの平行線lS1及びlS2から一対の消失点VS及びV’Sを決定する。 FIG. 11 is a diagram illustrating the relationship between the H pattern and the vanishing point in the spherical image. FIG. 11 shows an H pattern composed of two parallel lines l S1 and l S2 and another line l R perpendicular to the two lines. The vanishing point determination unit 12 determines a pair of vanishing points V S and V ′ S from the two parallel lines l S1 and l S2 in the H pattern.
原点からVSへの法線ベクトルnを以て、球面画像の中心を通る平面Πを決定する。この平面の球面画像との交点は大円CVをもたらす。この大円CVは、平面Πを含む並行平面の消失線である。線lRは平面Πと平行であるから、線lRの球面画像への投影平面と平面Πとの交点VR及びV’Rが線lRの一対の消失点となる。これにより、消失点決定部12は、Hパターンから2組の消失点を得ることができる。 A plane 通 る that passes through the center of the spherical image is determined with a normal vector n from the origin to V S. The intersection of this plane with the spherical image results in a great circle CV . The great circle CV is a vanishing line of parallel planes including a plane plane. Since the line l R is parallel to the plane [pi, intersection V R and V 'R of the projection plane and the plane [pi to the spherical image line l R is a pair of vanishing point of the line l R. Thereby, the vanishing point determination unit 12 can obtain two sets of vanishing points from the H pattern.
以下、消失点決定部12の処理をより具体的に説明する。消失点決定部12は、Hパターンを形成する各線分(平行線lS1及びlS2、並びに、垂直線lR)の投影平面の各法線ベクトルをそれぞれ特定パターン決定部11から受ける。ここでは、各法線ベクトルをそれぞれnS1、nS2、nRで示す。
Hereinafter, the process of the vanishing point determination unit 12 will be described more specifically. The vanishing point determination unit 12 receives from the specific
消失点決定部12は、各法線ベクトルを用いて2つの平行線lS1及びlS2における一対の消失点ペア(VS及びV’S)を以下の(式5)のように算出する。 The vanishing point determination unit 12 calculates a pair of vanishing point pairs (V S and V ′ S ) in the two parallel lines l S1 and l S2 using each normal vector as shown in the following (formula 5).
ここで、原点を通りn(=nS1×nS2)を法線ベクトルとする平面Πの消失線(大円CV)は以下の(式6)のように示される。また、垂直線lRの投影平面の単位球面画像との交点は以下の(式7)のように示される。 Here, a vanishing line (great circle C V ) of a plane plane passing through the origin and having n (= n S1 × n S2 ) as a normal vector is expressed as in the following (formula 6). Further, the intersection of the unit sphere image projection plane perpendicular line l R is shown as the following equation (7).
消失点決定部12は、(式6)及び(式7)の解として、垂直線lRに関する一対の消失点VR及びV’Rを算出する。具体的には、x=tanθcosφ及びy=tanθsinφとし、(式6)及び(式7)の両辺がcosθで除算され、以下の(式8)が得られる。更に、(式8)の方程式の解により、下記(式9)が得られ、結果、(式10)が得られる。 The vanishing point determination unit 12 calculates a pair of vanishing points V R and V ′ R related to the vertical line l R as a solution of (Expression 6) and (Expression 7). Specifically, x = tan θ cos φ and y = tan θ sin φ are set, and both sides of (Expression 6) and (Expression 7) are divided by cos θ to obtain (Expression 8) below. Further, by solving the equation (Equation 8), the following (Equation 9) is obtained, and as a result, (Equation 10) is obtained.
消失点決定部12は、φの値を用いてθの値を算出し、そして、垂直線lRに関する一対の消失点ペアを決定する。この消失点ペアの位置は、その単位球面上における極座標(θ、φ)で決まり、その直交座標は(sinθcosφ,sinθsinφ,cosθ)と(−sinθcosφ,−sinθsinφ,−cosθ)で求められる。 Vanishing point determining unit 12 uses the value of φ to calculate the value of theta, and determines the pair of vanishing point pairs about vertical l R. The position of the vanishing point pair is determined by polar coordinates (θ, φ) on the unit sphere, and the orthogonal coordinates thereof are obtained by (sin θ cos φ, sin θ sin φ, cos θ) and (−sin θ cos φ, −sin θ sin φ, −cos θ).
消失点決定部12は、特定パターン取得部11から2つの垂直線(図8に示す線分42A及び42B)の情報を得ている場合には、各垂直線について上述のようにそれぞれ一対の消失点ペアを決定し、これらの平均値を最終的な垂直線に関する一対の消失点ペアとしてもよい。
When the vanishing point determination unit 12 obtains information of two vertical lines (the
パラメータ推定部13は、消失点決定部12により決定された2組の消失点ペアの情報を用いて、車載カメラ7の地面(世界座標系)に対する姿勢パラメータを推定する。広角画像において検出された2組の消失点ペアからカメラ姿勢パラメータを推定する手法については周知な手法が採用されればよいため、ここでは説明を簡略化する。
The
パラメータ推定部13は、2組の消失点ペアから地面に対する回転行列(rotational matrix)を推定する。更に、パラメータ推定部13は、広角画像中のサイドラインとリア
ラインとの交点を1つの世界座標系の原点に設定し、この原点及び2組の消失点ペアに基づいて並進ベクトル(translational vector)を推定する。推定された回転行列はカメラ方位(orientation)を示し、推定された並進ベクトルはカメラ位置(displacement)を
示す。パラメータ推定部13は、このように推定された回転行列及び並進ベクトルを含む姿勢パラメータを周辺画像生成装置20へ送る。
The
[動作例]
以下、実施例1におけるパラメータ推定装置1の動作例を図12を用いて説明する。図12は、実施例1におけるパラメータ推定装置1の動作例を示すフローチャートである。
[Operation example]
Hereinafter, an operation example of the
特定パターン取得部11は、車載カメラ7から送られた映像信号を受信すると、この映像信号から広角画像を取得する(S121)。特定パターン取得部11は、このような広角画像から実空間における特定のパターン(Hパターン)に対応する各線分を検出する(122)。具体的には、特定パターン取得部11は、Hパターンを構成する少なくとも2本の平行線群に対応する各線分と、当該平行線群と垂直な垂直線に対応する線分とを検出する。
When the specific
消失点決定部12は、特定パターン取得部11からHパターンに対応する各線分を取得する。消失点決定部12は、当該平行線群に対応する各線分から1組の消失点ペアを決定する(S123)。これは、広角画像が前記広角カメラの内部パラメータを用いてマッピングされた球面画像に対する1組の消失点ペアとして決定される。
The vanishing point determination unit 12 acquires each line segment corresponding to the H pattern from the specific
次に、消失点決定部12は、当該平行線群に対応する各線分から決定された消失点ペアと当該垂直線に対応する線分との関係からもう1組の消失点ペアを決定する(S124)。具体的には、上述のように決定された1つの消失点と当該球面画像の中心とを結ぶ線を法線とする平面から1つの消失線を決定し、その平面と平行な関係となる垂直線のその球面画像への投影平面からもう1つの消失線を決定し、決定された2つの消失線の交点からそのもう1組の消失点ペアを決定する。 Next, the vanishing point determination unit 12 determines another vanishing point pair from the relationship between the vanishing point pair determined from each line segment corresponding to the parallel line group and the line segment corresponding to the vertical line (S124). ). Specifically, one vanishing line is determined from a plane whose normal is a line connecting one vanishing point determined as described above and the center of the spherical image, and a vertical relationship that is parallel to the plane is determined. Another vanishing line is determined from the projection plane of the line onto the spherical image, and the other vanishing point pair is determined from the intersection of the two vanishing lines determined.
パラメータ推定部12は、消失点決定部12により決定された当該広角画像における2組の消失点ペアを用いて、車載カメラ7の姿勢パラメータを推定する(S125)。具体的には、パラメータ推定部13は、2組の消失点ペアから地面に対する回転行列を推定し、更に、広角画像中のサイドラインとリアラインとの交点を1つの世界座標系の原点に設定し、この原点及び2組の消失点ペアに基づいて並進ベクトルを推定する。
The parameter estimation unit 12 estimates the posture parameter of the in-
[実施例1における作用及び効果]
上述したような実施例1におけるパラメータ推定装置1では、車載カメラ7により車両5の周辺環境として駐車場の駐車ラインが撮像されることで得られる広角画像から、特定パターン取得部11が実空間上でのHパターンに対応する線分を検出する。実施例1では、世界座標系でのHパターンとして、駐車場の地面に付されている駐車ラインのうち、少なくとも2本の平行線群とこれらに垂直な1本の垂直線とに対応する各線分が当該広角画像から検出される。
[Operation and Effect in Example 1]
In the
続いて、消失点決定部12がこのように検出された実空間上のHパターンに対応する各線分を用いて広角画像中の2組の消失点ペアを決定する。続いて、パラメータ推定部13が、このように決定された2組の消失点ペアを利用して車載カメラ7の姿勢パラメータのうちの回転行列を推定し、かつ、垂直線と平行線群との交点に設定される原点及び2組の消失点ペアを用いて車載カメラ7の姿勢パラメータのうちの並進ベクトルを推定する。
Subsequently, the vanishing point determination unit 12 determines two vanishing point pairs in the wide-angle image using each line segment corresponding to the H pattern in the real space thus detected. Subsequently, the
これにより、周辺画像生成装置20では、パラメータ推定部13から得られた姿勢パラメータが外部パラメータとして用いられ、車載カメラ7から得られる広角画像から図4に示すような車両5の周辺を映し出す画像データが生成される。
Thereby, in the surrounding
このように実施例1のパラメータ推定装置1によれば、特定パターンを持つ駐車ラインが付された駐車場に対象車両5を駐車しさえすれば、簡単にかつ正確に、車載カメラ7の外部パラメータを校正することができる。通常の駐車場には上述のようなHパターンが存在しているので、実施例1によれば、従来手法のように、複数のマーカを準備し、かつ、予め決められた正確な位置に各マーカを配置する等といった負担の大きい作業を必要としない。また、駐車ラインのHパターンは必ずしも平行線群と垂直線とが直交している状態で車載カメラ7に撮像される必要はなく、その交点にトラフィックコーンのような障害物が置かれていたりその交点付近のラインが消されていたとしても姿勢パラメータを推定可能であることは言うまでもない。このような場合には、広角画像から検出された各線分をその方向に応じて延長させて交点を導くようにすればよい。
As described above, according to the
更に、従来は、球面カメラモデルにおいて、消失点は、2つ以上の平行線群の交点として決定されていたところ、実施例1では、Hパターンから2組の消失点ペアを決定することができるため、姿勢パラメータを校正するためのシーンの制限を一層緩くすることができる。 Further, conventionally, in the spherical camera model, the vanishing point is determined as an intersection of two or more parallel line groups, but in Example 1, two vanishing point pairs can be determined from the H pattern. Therefore, it is possible to further relax the restriction of the scene for correcting the posture parameter.
実施例1では1つの車載カメラ7の姿勢パラメータを推定対象としていた。そこで、実施例2として、3つの車載カメラ7の各姿勢パラメータを推定対象とする例を以下に示す。以下、実施例1と異なる内容を中心に実施例2におけるパラメータ推定装置について説明する。
In the first embodiment, the posture parameter of one in-
図13は、実施例2におけるパラメータ推定装置が搭載される車両の上面図を示す模式図である。図14は、実施例2におけるパラメータ推定装置を含むカメラシステムの構成を示す模式図である。実施例2におけるカメラシステム1は、3つの車載カメラ7、実施例2におけるパラメータ推定装置10、周辺画像生成装置20、表示装置30等で構成される。
FIG. 13 is a schematic diagram illustrating a top view of a vehicle on which the parameter estimation device according to the second embodiment is mounted. FIG. 14 is a schematic diagram illustrating a configuration of a camera system including the parameter estimation device according to the second embodiment. The
実施例2では、車両5に3つの車載カメラ7が車両の後部(7B)、左サイド(7L)及び右サイド(7R)にそれぞれ設定される。各車載カメラ7は、実施例1と同様に広角カメラである。以降、車載カメラ7B、7R及び7Lをそれぞれリアカメラ、右カメラ、左カメラとも表記する。なお、本発明は、車載カメラ7B、7R及び7Lを設置する厳密な各位置を限定するものではない。
In the second embodiment, three in-
図15は、各車載カメラ7から得られる広角画像の例を示す図である。具体的には、図15(A)は、左カメラ7Lから得られる広角画像の例を示し、図15(B)は、リアカメラ7Bから得られる広角画像の例を示し、図15(C)は、右カメラ7Rから得られる広角画像の例を示す。図15(A)及び(C)に示されるように、左カメラ7L及び右カメラ7Rから得られる各広角画像では、リアライン42が図面に対して縦方向に長く延びており、サイドライン41が図面に対して横方向に長く伸びている。逆に、図15(B)に示されるリアカメラ7Bから得られる広角画像では、リアライン42が図面に対して横方向に長く延びており、サイドライン41が図面に対して縦方向に長く伸びている。
FIG. 15 is a diagram illustrating an example of a wide-angle image obtained from each vehicle-mounted
図13及び15から分かるように、リアカメラ7Bは、少なくとも車両5の後部より後方の領域(図13で示す長鎖線7B−FOV)を視野領域とする。右カメラ7Rは、少なくとも車両5の右側面より右方向の領域(図13で示す長鎖線7R−FOV)を視野領域とする。左カメラ7Lは、少なくとも車両5の左側面より左方向の領域(図13で示す長鎖線7L−FOV)を視野領域とする。よって、実施例2では、右カメラ7Rとリアカメラ7Bとの間には、重複する視野領域(図13で斜線で示される領域OL−FOV−R)が存在し、左カメラ7Lとリアカメラ7Bとの間には、重複する視野領域(図13で斜線
で示される領域OL−FOV−L)が存在する。
As can be seen from FIGS. 13 and 15, the
周辺画像生成装置20は、3つの車載カメラ7からそれぞれ映像信号を受け、各映像信号から各広角画像をそれぞれ取得する。周辺画像生成装置20は、各広角画像を各車載カメラ7の内部パラメータ及び外部パラメータを用いてそれぞれ変換することにより、車両5の周辺を映し出す画像データを生成する。図16は、実施例2における出力画像(鳥瞰図)の例を示す図である。なお、図15の例のような複数の車載カメラ7から得られた広角画像から図16に示すような画像データを生成する具体的手法については周知な手法が利用されればよいため、ここでは説明を省略する。
The peripheral
周辺画像生成装置20により生成された画像データは、表示装置30のディスプレイに表示される。これにより、運転者は、この表示装置30の表示面に映し出された映像を参照することにより、見え易い前方以外の各方向の状況を正確に認識することができ、結果、安全な運転操作を行うことができる。
The image data generated by the peripheral
周辺画像生成装置20は、3つの各車載カメラ7についてそれぞれ内部パラメータ及び外部パラメータを読み出し可能なメモリに格納する。各カメラの内部パラメータについては、実施例1と同様に、製造時等に予め測定され格納されている。各カメラの外部パラメータ(姿勢パラメータ)は、その初期値が当該メモリに予めそれぞれ格納されており、任意のタイミングでパラメータ推定装置10によりそれぞれ校正される。
The peripheral
[装置構成]
実施例2におけるパラメータ推定装置10は、各車載カメラ7について、特定パターン取得部11、消失点決定部12及びパラメータ推定部13のセットをそれぞれ有する。具体的には、リアカメラ7Bから得られる広角画像を処理するセットとして特定パターン取得部11B、消失点決定部12B及びパラメータ推定部13Bが備えられ、右カメラ7Rから得られる広角画像を処理するセットとして特定パターン取得部11R、消失点決定部12R及びパラメータ推定部13Rが備えられ、左カメラ7Lから得られる広角画像を処理するセットとして特定パターン取得部11L、消失点決定部12L及びパラメータ推定部13Lが備えられる。
[Device configuration]
The
特定パターン取得部11B、消失点決定部12B及びパラメータ推定部13Bは、実施例1と同様の手法により、リアカメラ7Bから得られる広角画像からリアカメラ7Bの姿勢パラメータを推定する。同様に、特定パターン取得部11R、消失点決定部12R及びパラメータ推定部13Rは、実施例1と同様の手法により、右カメラ7Rから得られる広角画像から右カメラ7Rの姿勢パラメータを推定する。同様に、特定パターン取得部11L、消失点決定部12L及びパラメータ推定部13Lは、実施例1と同様の手法により、左カメラ7Lから得られる広角画像からリアカメラ7Lの姿勢パラメータを推定する。
The specific
図17は、各車載カメラから取得された広角画像からの線分検出の例を示す図である。上述したように、リアカメラ7Bから取得された広角画像と、他のカメラ7L及び7Bから得られた広角画像とでは、リアライン42及びサイドライン41の伸びる方向が異なる。そこで、特定パターン取得部11Bは、実施例1と同様に、実空間におけるHパターンに対応する各線分を検出すればよいが、特定パターン取得部11R及び11Lは、実施例1とは若干異なる。特定パターン取得部11R及び11Lはそれぞれ、抽出された線分のうち車両5に近く広角画像の縦方向(図17の縦方向)に長い線分を当該垂直線として特定し、車両5に近く横方向(図17の横方向)に長い線分を当該平行線群として特定する。なお、特定パターン取得部11R及び11Lのその他の処理については、実施例1と同様である。
FIG. 17 is a diagram illustrating an example of line segment detection from a wide-angle image acquired from each in-vehicle camera. As described above, the extending direction of the
なお、図14の例では、各車載カメラ7についてそれぞれ特定パターン取得部11、消失点決定部12及びパラメータ推定部13のセットを設ける例を示したが、本発明はこのような構成に限定するものではない。特定パターン取得部11、消失点決定部12及びパラメータ推定部13が1つずつ設けられるようにしてもよい。
In the example of FIG. 14, an example in which a set of the specific
実施例2におけるパラメータ推定装置10は、更に、パラメータ補整部15を有する。パラメータ補整部15は、各パラメータ推定部13B、13L及び13Rにより推定された各姿勢パラメータを、右カメラ7Rとリアカメラ7Bとの間、及び、左カメラ7Lとリアカメラ7Bとの間の各相対姿勢に関し補整する。
The
上述したように、実施例2では、隣接する2つの車載カメラ7の間には重複する視野領域OL−FOV−R及びOL−FOV−Lがある。パラメータ補整部15は、各パラメータ推定部13により推定された各姿勢パラメータを用いて、隣接する車載カメラ7のうちの一方から得られた広角画像上のピクセルを他方から得られた広角画像上にマッピングする。これにより、右カメラ7Rから得られた広角画像内の視野領域OL−FOV−Rに対応する領域、及び、左カメラ7Lから得られた広角画像内の視野領域OL−FOV−Lに対応する領域がそれぞれリアカメラ7Bから得られた広角画像にマッピングされる。
As described above, in the second embodiment, there are overlapping visual field areas OL-FOV-R and OL-FOV-L between two adjacent vehicle-mounted
以下、隣接する車載カメラ7から得られた広角画像間のマッピング処理についてより詳細に説明する。パラメータ補整部15は、パラメータ推定部13L及び13Bから左カメラ7Lの姿勢パラメータ(Rlg,Tlg)及びリアカメラ7Bの姿勢パラメータ(Rbg,Tbg)を取得する。このとき、左カメラ7Lから得られた広角画像及びリアカメラ7Bから得られた広角画像における地上点Pgの射影がそれぞれxl及びxblであると想定すると、以下の式が成立する。
Hereinafter, the mapping process between wide-angle images obtained from the adjacent in-
s(xl)及びs(xbl)はそれぞれ単位球面画像における対応点xl及びxblの座標を示し、各内部パラメータにより上記(式3)を用いて算出される。λl及びλbは、世界座標系のx軸及びy軸が地上平面に設定されたときに地上点Pgのz座標がゼロとなるという地上平面の制約により決定されるスケール因子である。 s (x l ) and s (x bl ) indicate the coordinates of the corresponding points x l and x bl in the unit spherical image, respectively, and are calculated using the above (Equation 3) with each internal parameter. lambda l and lambda b are scaling factor z coordinates of ground point P g is determined by the constraints of the ground plane to become zero when x-axis and y-axis of the world coordinate system is set on the ground plane.
上記(式11)によれば、下記(式12)が得られ、最終的に、下記(式13)が得られる。Rbg −1はRbgの逆行列を示す。また、s−1は、sの逆演算を示し、カメラの内部パラメータによって単位球面画像の点から広角画像の点を算出することを意味する。 According to the above (Formula 11), the following (Formula 12) is obtained, and finally, the following (Formula 13) is obtained. R bg −1 represents an inverse matrix of R bg . Further, s −1 indicates an inverse operation of s, and means that a point of the wide-angle image is calculated from the point of the unit spherical image by an internal parameter of the camera.
パラメータ補整部15は、例えば上記(式13)においてカメラ姿勢パラメータ及び既知の内部パラメータを用いることにより、左カメラ7Lから得られた広角画像における地上点Pgに対応する点xlをリアカメラ7Bから得られた広角画像における地上点Pgに対応する点xblにマッピングする。なお、上述の説明では、左カメラ7L及びリアカメラ7Bから得られた各広角画像間のマッピング処理について示したが、右カメラ7R及びリアカメラ7Bから得られた各広角画像間のマッピング処理の同様であるためここでは説明を省略する。
The
以降、説明を簡単にするために、上記(式13)を用いたマッピング処理を以下の(式14)のように示す。同様に、右カメラ7Rから得られた広角画像及びリアカメラ7Bから得られた広角画像における地上点Pg2の射影がそれぞれxr及びxbrであると想定し、右カメラ7R及びリアカメラ7Bから得られた各広角画像間のマッピング処理を以下の(式15)のように示す。
Hereinafter, in order to simplify the description, the mapping process using the above (Formula 13) is shown as the following (Formula 14). Similarly, the projection of the ground point P g2 is assumed to be x r and x br respectively at the wide-angle image obtained from the wide-angle image and the
ここで、xl、xr、xbl及びxbrの明るさをLl(xl)、Lr(xr)、Lb(xbl)、Lb(xbr)で示した場合、以下の(式16)によって、隣接する2つの車載カメラ間で重複する視野領域に対応する重複画像領域の同一性を計算することができる。Ω1及びΩ2は、左カメラ7L及びリアカメラ7Bの間、並びに、右カメラ7R及びリアカメラ7Bの間の地上の重複画像領域を示し、Ll(上線付き)、Lr(上線付き)、Lb(上線付き)は、それぞれ左カメラ、右カメラ及びリアカメラから取得された各広角画像における重複領域の画素値の平均値を示す。
Here, when the brightness of x l , x r , x bl and x br is indicated by L l (x l ), L r (x r ), L b (x bl ), L b (x br ), According to the following (Equation 16), the identity of the overlapping image region corresponding to the visual field region overlapping between two adjacent vehicle-mounted cameras can be calculated. Ω 1 and Ω 2 indicate overlapping image areas on the ground between the
パラメータ補整部15は、例えば上記(式16)を用いることにより、重複する視野領域に対応する重複画像領域が、リアカメラ7B、右カメラ7L、リアカメラ7Bからそれぞれ得られる各広角画像の間で近似するように、各カメラの姿勢パラメータをそれぞれ補整する。パラメータ補整部15は、例えば、シンプレックス法(simplex method)を用いることにより(式16)の値を最大化することにより各姿勢パラメータを補整する。具体的には、Ψlb及びΨrbには(式13)に示すように各姿勢パラメータが含まれているため、(式16)が最大化されたときに得られるΨlb及びΨrbから、補整された各姿勢パラメータを取得する。
The
図18は、実施例2においてカメラ姿勢パラメータの補整の繰り返し回数に対し計算された相関値を示すグラフである。相関値は(式16)を用いて計算される。パラメータ補整部15は、例えば(式16)で算出される相関値が0.8より大きくなった場合に処理を終了する。図18の例では、補整前の相関値が0.69であり、補整後の相関値が0.8となっている。パラメータ補整部15は、このように洗練された各姿勢パラメータをそれぞれ周辺画像生成部20へ送る。
FIG. 18 is a graph showing correlation values calculated for the number of repetitions of camera posture parameter correction in the second embodiment. The correlation value is calculated using (Equation 16). The
[動作例]
以下、実施例2におけるパラメータ推定装置1の動作例を図19を用いて説明する。図19は、実施例2におけるパラメータ推定装置1の動作例を示すフローチャートである。
[Operation example]
Hereinafter, an operation example of the
特定パターン取得部11R、11B及び11Lは、各車載カメラ7から得られる各広角画像から実施例1と同様の手法によりHパターンに対応する平行線群及び垂直線を特定する(S121及びS122)。続いて、消失点決定部12R、12B及び12Lは、これら特定された各線分を用いて実施例1と同様の手法により各広角画像についての2組の消失点ペアをそれぞれ決定する(S123及びS124)。パラメータ推定部13R、13B及び13Lは、これら決定された2組ずつの消失点ペアに基づいて実施例1と同様の手法により各車載カメラ7の姿勢パラメータをそれぞれ推定する(S125)。
The specific
実施例2では、続いて、パラメータ補整部15が、複数の車載カメラ7のうち重複する視野領域を有する各車載カメラ7から得られる各広角画像における当該重複領域に対応する画像領域の画像データ(ピクセルデータ)を、推定された各姿勢パラメータを用いて対応付ける(S191)。具体的には、左カメラ7L及びリアカメラ7Bから得られた各広角画像間の対応付け(マッピング)処理、及び、右カメラ7R及びリアカメラ7Bから得
られた各広角画像間の対応付け処理がそれぞれ行われる。
In the second embodiment, subsequently, the
パラメータ補整部15は、当該車載カメラ7間で重複する視野領域に対応する重複画像領域の画像データ(ピクセルデータ)の相関を計算する(S192)。パラメータ補整部15は、この相関値が最大化するような値で当該各姿勢パラメータを補整する(S193)。これにより、各姿勢パラメータが、右カメラ7Rとリアカメラ7Bとの間、及び、左カメラ7Lとリアカメラ7Bとの間の各相対姿勢に関し補整される。
The
[実施例2における作用及び効果]
上述したような実施例2では、車両5の後部、右側面及び左側面に設置されたリアカメラ7B、右カメラ7R及び左カメラ7Lからそれぞれ広角画像が取得され、各広角画像に含まれる駐車ラインのHパターンに対応する線分を用いて実施例1と同様の手法によりリアカメラ7B、右カメラ7R及び左カメラ7Lの姿勢パラメータがそれぞれ推定される。
[Operation and Effect in Example 2]
In the second embodiment as described above, wide-angle images are acquired from the
実施例2におけるパラメータ推定装置10では、更に、パラメータ補整部15により、実施例1と同様の手法により推定された3つの車載カメラ7の各姿勢パラメータが隣接する2つのカメラ間の相対姿勢に関し洗練される。具体的には、各パラメータ推定部13でそれぞれ推定された各姿勢パラメータ及び予め決められた内部パラメータが利用されることにより、隣接する2つのカメラの一方から得られる広角画像の点が他方から得られる広角画像の点にマッピングされる。このマッピングされた各広角画像の点の相関値が隣接する2つのカメラの重複視野領域に対応する画像領域において最大化されるように各姿勢パラメータが決定される。このように、実施例2によれば、隣接するカメラ間における地面の重複領域を使ってカメラ間で相対的な姿勢を洗練することができる。
In the
図20は、パラメータ補整部15により補整される前の姿勢パラメータにより生成された鳥瞰図の例を示す図である。図21は、実施例2におけるカメラシステムで出力される鳥瞰図の例を示す図である。図20及び21では、下図の丸で囲まれた部分の拡大図が各上図でそれぞれ示されている。図20の鳥瞰図では、隣接するカメラ間の重複視野領域に相当する箇所において視覚的矛盾が見受けられる。ところが、図21の鳥瞰図では、その視覚的矛盾が解消されていることが分かる。このように、実施例2によれば、視覚的一貫性を持つ出力画像を生成することができる。
FIG. 20 is a diagram illustrating an example of a bird's eye view generated based on the posture parameters before being corrected by the
[変形例]
上述したように、実施例1及び2におけるパラメータ推定装置10によれば、簡単にかつ正確に車載カメラ7の姿勢パラメータ(外部パラメータ)を推定し、校正することができる。しかしながら、実施例1及び2では地上のHパターンに対するカメラ姿勢が推定されるが、車両5に対するカメラ姿勢を必ずしも推定しているとは限らない。ところが、最終的な出力画像(鳥瞰図)は車両5を中心に示した画像であるため、その出力画像において車両5の側面が駐車ラインのサイドラインと平行とならない場合があり得る(図21の下図参照)。この場合、地上に対するカメラ姿勢に回転変位が生ずる可能性がある。
[Modification]
As described above, according to the
そこで、上述の実施例1及び2におけるカメラシステム1を、ユーザとの対話型インタフェースを介してこのような車両5を中心とするカメラ姿勢が微調整され得るように構成してもよい。図22は、実施例2の変形例としてのカメラシステムの構成を示す模式図である。なお、図22には実施例2の変形例を示したが、実施例1にも同様の変形例を適用することが可能であることは言うまでもない。
Therefore, the
本変形例では、周辺画像生成装置20に微調整処理部25が設けられる。微調整処理部25は、例えば、周辺画像生成装置20内のROMに格納されたプログラムがCPUで実行されることにより実現される。微調整処理部25は、周辺画像生成装置20が生成した
鳥瞰図のような出力画像にユーザの操作メニューとして微調整用インタフェースを付加する。
In the present modification, the fine
運転者等のユーザは、表示装置30に表示された出力画像において車両5の側面が駐車ラインのサイドラインと平行となっていないと判断した場合には、その操作メニューとしての微調整用インタフェースを入力装置35を介して操作する。この微調整用インタフェースは、出力画像の中心を回転中心として、長方形の出力画像の縦の両サイドが、その画像に現れる車の両サイドと並行になるように、出力画像を時計回り又は反時計周りに回転する角度を変えることができるインタフェースである。なお、このインタフェースの形態は限定されない。
When a user such as a driver determines that the side surface of the
微調整処理部25は、入力装置35から得られるデータに基づいてユーザ操作に対応する回転角度を取得し、この回転角度をパラメータ推定装置10で推定された姿勢パラメータの回転行列に反映させる。これにより、周辺画像生成装置20は、この更新された姿勢パラメータを用いて再度出力画像を生成し、表示装置30へ出力させる。
The fine
当該ユーザは、表示装置30の表示部に表示される出力画像を見ながら、回転角度を当該インタフェースを用いて車両5の側面が駐車ラインのサイドラインと平行となるように調整する。
While viewing the output image displayed on the display unit of the
図23は、本変形例において微調整された姿勢パラメータを用いて生成された出力画像の例を示す図である。図23には、図21の下図に示す出力画像内における車両5の傾きが調整されていることが示されている。
FIG. 23 is a diagram illustrating an example of an output image generated using the attitude parameter finely adjusted in the present modification. FIG. 23 shows that the inclination of the
このように本変形例によれば、このようなユーザとの対話型インタフェースを提供することにより、車両5に対するカメラ姿勢パラメータについても正確に決めることができ、一層正確な姿勢パラメータを取得することが可能となる。
As described above, according to this modification, by providing such an interactive interface with the user, it is possible to accurately determine the camera posture parameter with respect to the
また、上述の各実施例では、車載カメラ1台及び3台を用いた形態を示したが、本発明は車載カメラの台数を限定するものではない。車両5の前方に設置されたカメラを含む4台の車載カメラを用いる形態であってもよいし、それ以上の台数のカメラを用いる形態であってもよい。
In each of the above-described embodiments, the form using one and three in-vehicle cameras is shown, but the present invention does not limit the number of in-vehicle cameras. The form using four vehicle-mounted cameras including the camera installed ahead of the
また、上述の各実施例では、地上に付された駐車ラインを実世界における特定パターン(Hパターン)として利用する例を示したが、本発明はこのような形態に限定するものではない。予め少なくとも2本の平行な線分(以降、平行線群と表記する)及びこれらに垂直な1本の線分(以降、垂直線と表記する)から構成されるとして知られているものであり、車載カメラ7で撮像可能なものであれば、例えば、建物の壁面と地面、壁面と天井面、そのような形状を有する模型などが利用されてもよい。
Moreover, although the example which utilizes the parking line attached | subjected on the ground as a specific pattern (H pattern) in the real world was shown in each above-mentioned Example, this invention is not limited to such a form. It is known in advance as being composed of at least two parallel line segments (hereinafter referred to as a parallel line group) and one line segment perpendicular thereto (hereinafter referred to as a vertical line). For example, a wall surface and a ground surface of a building, a wall surface and a ceiling surface, and a model having such a shape may be used as long as the vehicle-mounted
1 カメラシステム
5 車両
7、7B、7L、7R 車載カメラ(リアカメラ、左カメラ、右カメラ)
10 パラメータ推定装置
11、11B、11L、11R 特定パターン取得部
12、12B、12L、12R 消失点決定部
13、13B、13L、13R パラメータ推定部
20 周辺画像生成装置
25 微調整処理部
30 表示装置
35 入力装置
1
10
Claims (8)
前記パターン取得手段により取得された前記特定パターンに対応する各線分を用いて前記広角画像に対する2組の消失点ペアを決定する決定手段と、
前記決定手段で決定された2組の消失点ペアを用いて地面に対する前記広角カメラの姿勢パラメータを推定する推定手段と、
を備えることを特徴とするカメラ姿勢パラメータ推定装置。 From a wide-angle image obtained by a wide-angle camera having a field of view larger than a hemisphere, at least two first straight lines and second straight lines that are parallel to each other in real space, and have a relationship perpendicular to the first straight lines and the second straight lines Pattern acquisition means for acquiring each line segment corresponding to a specific pattern composed of one third straight line;
Determining means for determining two vanishing point pairs for the wide-angle image using each line segment corresponding to the specific pattern acquired by the pattern acquiring means;
Estimating means for estimating posture parameters of the wide-angle camera with respect to the ground using the two vanishing point pairs determined by the determining means;
A camera posture parameter estimation apparatus comprising:
ことを特徴とする請求項1に記載のカメラ姿勢パラメータ推定装置。 The determining means uses the line segment corresponding to the first straight line and the line segment corresponding to the second straight line among the line segments corresponding to the specific pattern, so that the wide-angle image has an internal parameter of the wide-angle camera. A set of vanishing point pairs for the spherical image mapped by using is determined as one set of vanishing point pair of the wide-angle image, and a line connecting the determined one vanishing point and the center of the spherical image is a normal line. One vanishing line is determined from the plane to be determined, another vanishing line is determined from the projection plane of the third straight line that is parallel to the plane onto the spherical image, and the two vanishing lines are determined. Determine one more vanishing point pair from the intersection,
The camera posture parameter estimation apparatus according to claim 1.
前記決定手段は、前記第4直線を用いて前記第3直線と同様に新たな1組の消失点ペアを決定し、この新たに決定された1組の消失点ペアと、前記第3直線を用いて決定された1組の消失点ペアとの平均により1組の消失点ペアを決定する、
ことを特徴とする請求項1又は2に記載のカメラ姿勢パラメータ推定装置。 The pattern acquisition means includes the first straight line and the second straight line, and a fourth straight line different from the third straight line having a perpendicular relationship with the first straight line and the second straight line. Each line segment that can form a specific pattern is further acquired,
The determining means determines a new set of vanishing point pairs using the fourth straight line in the same manner as the third straight line, and determines the newly determined one set of vanishing point pair and the third straight line. Determine one vanishing point pair by averaging with one set of vanishing point pair determined using
The camera posture parameter estimation apparatus according to claim 1 or 2.
前記決定手段は、2組の消失点ペアを前記各広角画像についてそれぞれ決定し、
前記推定手段は、前記各広角画像に対する各2組の消失点ペアをそれぞれ用いて、前記各広角カメラの姿勢パラメータをそれぞれ推定し、
前記カメラ姿勢パラメータ推定装置は、
前記複数の広角カメラのうち重複する視野領域を有する少なくとも2つの隣接広角カメラから得られる各広角画像内のその重複する視野領域に対応する画像領域を前記推定手段により推定されたその隣接広角カメラの各姿勢パラメータを用いて特定し、この特定された各画像領域の画像情報を用いてその隣接広角カメラの各姿勢パラメータを補整する補整手段、
を更に備えることを特徴とする請求項1から3のいずれか1項に記載のカメラ姿勢パラメータ推定装置。 The pattern acquisition means acquires each line segment corresponding to the specific pattern from each wide-angle image obtained from a plurality of wide-angle cameras,
The determining means determines two vanishing point pairs for each of the wide-angle images,
The estimation means estimates the attitude parameters of the wide-angle cameras using the two vanishing point pairs for the wide-angle images,
The camera posture parameter estimation device includes:
Among the plurality of wide-angle cameras, an image area corresponding to the overlapping field area in each wide-angle image obtained from at least two adjacent wide-angle cameras having overlapping field areas is estimated by the estimating unit. A correction means for specifying each posture parameter and correcting each posture parameter of the adjacent wide-angle camera using the image information of each specified image region;
The camera posture parameter estimation apparatus according to claim 1, further comprising:
ムにおいて、
前記パラメータ推定装置は、
前記複数の広角カメラによりそれぞれ得られる各広角画像から、実空間における、相互に平行な少なくとも2つの第1直線及び第2直線と、該第1直線及び該第2直線と垂直な関係を有する1つの第3直線とから構成される特定パターンに対応する各線分をそれぞれ取得するパターン取得手段と、
前記パターン取得手段により取得された前記特定パターンに対応する各線分を用いて前記各広角画像に対する2組ずつの消失点ペアをそれぞれ決定する決定手段と、
前記決定手段で決定された2組ずつの消失点ペアをそれぞれ用いて地面に対する前記各広角カメラの姿勢パラメータをそれぞれ推定する推定手段と、
を備え、
前記画像生成装置は、
前記パラメータ推定装置により推定された前記複数の広角カメラの各姿勢パラメータを用いて、前記複数の広角画像から前記複数の広角カメラが搭載された車両を中心とする鳥瞰図を示す画像データを生成する生成手段と、
前記生成手段により生成された画像データに応じた鳥瞰図を参照したユーザにより入力されるその鳥瞰図における車両の傾き情報を取得する傾き情報取得手段と、
前記傾き情報を前記複数の広角カメラの各姿勢パラメータに反映させる反映手段と、
を備えることを特徴とするカメラシステム。 A plurality of wide-angle cameras installed at least on the side and rear of the vehicle and having a field of view larger than a hemisphere, a parameter estimation device for estimating posture parameters of each wide-angle camera, and image data generated from each wide-angle image obtained from each wide-angle camera In a camera system including an image generation device,
The parameter estimation device includes:
From each wide-angle image respectively obtained by the plurality of wide-angle cameras, at least two first straight lines and second straight lines that are parallel to each other in a real space, and 1 that is perpendicular to the first straight lines and the second straight lines Pattern acquisition means for acquiring each line segment corresponding to a specific pattern composed of three third straight lines,
Determining means for determining two vanishing point pairs for each wide-angle image using each line segment corresponding to the specific pattern acquired by the pattern acquiring means;
Estimating means for estimating posture parameters of the wide-angle cameras with respect to the ground using the two vanishing point pairs determined by the determining means,
With
The image generation device includes:
Generation that generates image data indicating a bird's-eye view centered on a vehicle on which the plurality of wide-angle cameras are mounted, from the plurality of wide-angle images, using the posture parameters of the plurality of wide-angle cameras estimated by the parameter estimation device. Means,
Inclination information acquisition means for acquiring vehicle inclination information in the bird's-eye view input by the user with reference to the bird's-eye view corresponding to the image data generated by the generation means;
Reflecting means for reflecting the tilt information on each posture parameter of the plurality of wide-angle cameras;
A camera system comprising:
半球以上の視野を有する広角カメラにより得られる広角画像から、実空間における、相互に平行な少なくとも2つの第1直線及び第2直線と、該第1直線及び該第2直線と垂直な関係を有する1つの第3直線とから構成される特定パターンに対応する各線分をそれぞれ取得し、
前記取得された前記特定パターンを形成し得る各線分を用いて前記広角画像に対する2組の消失点ペアを決定し、
前記決定された2組の消失点ペアを用いて地面に対する前記広角カメラの姿勢パラメータを推定する、
ことを特徴とするカメラ姿勢パラメータ推定方法。 Computer
From a wide-angle image obtained by a wide-angle camera having a field of view larger than a hemisphere, at least two first straight lines and second straight lines that are parallel to each other in real space, and have a relationship perpendicular to the first straight lines and the second straight lines Obtain each line segment corresponding to a specific pattern composed of one third straight line,
Determining two vanishing point pairs for the wide-angle image using each line segment that can form the acquired specific pattern;
Estimating the wide-angle camera attitude parameters with respect to the ground using the determined two vanishing point pairs;
A camera posture parameter estimation method characterized by the above.
前記取得された前記特定パターンを形成し得る各線分を用いて前記広角画像に対する2組の消失点ペアを決定し、
前記決定された2組の消失点ペアを用いて地面に対する前記広角カメラの姿勢パラメータを推定する、
ことをコンピュータに実行させることを特徴とするカメラ姿勢パラメータ推定プログラム。 From a wide-angle image obtained by a wide-angle camera having a field of view larger than a hemisphere, at least two first straight lines and second straight lines that are parallel to each other in real space, and have a relationship perpendicular to the first straight lines and the second straight lines Obtain each line segment corresponding to a specific pattern composed of one third straight line,
Determining two vanishing point pairs for the wide-angle image using each line segment that can form the acquired specific pattern;
Estimating the wide-angle camera attitude parameters with respect to the ground using the determined two vanishing point pairs;
A camera posture parameter estimation program that causes a computer to execute
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010084819A JP5455124B2 (en) | 2010-04-01 | 2010-04-01 | Camera posture parameter estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010084819A JP5455124B2 (en) | 2010-04-01 | 2010-04-01 | Camera posture parameter estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011215063A JP2011215063A (en) | 2011-10-27 |
JP5455124B2 true JP5455124B2 (en) | 2014-03-26 |
Family
ID=44944937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010084819A Expired - Fee Related JP5455124B2 (en) | 2010-04-01 | 2010-04-01 | Camera posture parameter estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5455124B2 (en) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5783569B2 (en) * | 2011-11-22 | 2015-09-24 | 国立大学法人鳥取大学 | Straight line detection device, straight line detection method, straight line detection program, and imaging system |
JP5898475B2 (en) * | 2011-11-28 | 2016-04-06 | クラリオン株式会社 | In-vehicle camera system, calibration method thereof, and calibration program thereof |
US9123135B2 (en) * | 2012-06-14 | 2015-09-01 | Qualcomm Incorporated | Adaptive switching between vision aided INS and vision only pose |
WO2014142367A1 (en) * | 2013-03-13 | 2014-09-18 | 엘지전자 주식회사 | Electronic device and method for controlling same |
CN103810697A (en) * | 2013-11-01 | 2014-05-21 | 云南大学 | Calibration of parabolic refraction and reflection vidicon internal parameters by utilizing four unparallel straight lines in space |
KR101574195B1 (en) | 2014-02-14 | 2015-12-03 | 브이앤아이 주식회사 | Auto Calibration Method for Virtual Camera based on Mobile Platform |
US9317921B2 (en) | 2014-07-10 | 2016-04-19 | Qualcomm Incorporated | Speed-up template matching using peripheral information |
KR102227850B1 (en) * | 2014-10-29 | 2021-03-15 | 현대모비스 주식회사 | Method for adjusting output video of rear camera for vehicles |
EP3057062A1 (en) * | 2015-02-16 | 2016-08-17 | Application Solutions (Electronics and Vision) Limited | Method and device for stabilization of a surround view image |
EP3086284A1 (en) * | 2015-04-23 | 2016-10-26 | Application Solutions (Electronics and Vision) Limited | Camera extrinsic parameters estimation from image lines |
JP6525195B2 (en) * | 2015-06-09 | 2019-06-05 | 学校法人 中央大学 | Method of estimating internal parameters of fisheye camera, estimation device, and estimation program |
WO2017122552A1 (en) * | 2016-01-15 | 2017-07-20 | ソニー株式会社 | Image processing device and method, program, and image processing system |
KR102326184B1 (en) * | 2017-11-27 | 2021-11-15 | 현대모비스 주식회사 | Calibration apparatus and method of rear view camera |
CN109300159B (en) | 2018-09-07 | 2021-07-20 | 百度在线网络技术(北京)有限公司 | Position detection method, device, equipment, storage medium and vehicle |
JP7162489B2 (en) * | 2018-10-10 | 2022-10-28 | フォルシアクラリオン・エレクトロニクス株式会社 | CALIBRATION DEVICE AND CALIBRATION METHOD |
GB2579843A (en) * | 2018-12-18 | 2020-07-08 | Continental Automotive Gmbh | Method and apparatus for calibrating the extrinsic parameter of an image sensor |
JP7322692B2 (en) | 2019-12-19 | 2023-08-08 | 株式会社Jvcケンウッド | Image adjustment device, virtual reality image display system, and image adjustment method |
JP7443751B2 (en) | 2019-12-19 | 2024-03-06 | 株式会社Jvcケンウッド | Virtual reality image display system and control method for virtual reality image display system |
JP7443750B2 (en) | 2019-12-19 | 2024-03-06 | 株式会社Jvcケンウッド | Virtual reality image display system and control method for virtual reality image display system |
JP7443749B2 (en) | 2019-12-19 | 2024-03-06 | 株式会社Jvcケンウッド | Image adjustment device, virtual reality image display system, and image adjustment method |
CN111223150A (en) * | 2020-01-15 | 2020-06-02 | 电子科技大学 | Vehicle-mounted camera external parameter calibration method based on double vanishing points |
CN113012226A (en) * | 2021-03-22 | 2021-06-22 | 浙江商汤科技开发有限公司 | Camera pose estimation method and device, electronic equipment and computer storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3986360B2 (en) * | 2002-05-14 | 2007-10-03 | 松下電器産業株式会社 | Camera calibration device |
JP2005275789A (en) * | 2004-03-24 | 2005-10-06 | Japan Science & Technology Agency | Three-dimensional structure extraction method |
JP4825980B2 (en) * | 2007-03-06 | 2011-11-30 | 国立大学法人岩手大学 | Calibration method for fisheye camera. |
JP5105481B2 (en) * | 2008-05-27 | 2012-12-26 | 国立大学法人鳥取大学 | Lane detection device, lane detection method, and lane detection program |
-
2010
- 2010-04-01 JP JP2010084819A patent/JP5455124B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011215063A (en) | 2011-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5455124B2 (en) | Camera posture parameter estimation device | |
US9858639B2 (en) | Imaging surface modeling for camera modeling and virtual view synthesis | |
JP5739584B2 (en) | 3D image synthesizing apparatus and method for visualizing vehicle periphery | |
JP5491235B2 (en) | Camera calibration device | |
JP5898475B2 (en) | In-vehicle camera system, calibration method thereof, and calibration program thereof | |
CN107465890B (en) | Image processing device for vehicle | |
CN112655024B (en) | Image calibration method and device | |
JP6767998B2 (en) | Estimating external parameters of the camera from the lines of the image | |
US10810762B2 (en) | Image processing apparatus | |
JP6891954B2 (en) | Object detection device, object detection method, and program | |
JP2013001366A (en) | Parking support device and parking support method | |
KR101583663B1 (en) | Method for generating calibration indicator of camera for vehicle | |
JP2011064566A (en) | Distance estimation apparatus | |
JP2023505891A (en) | Methods for measuring environmental topography | |
TW201605247A (en) | Image processing system and method | |
JP2011254128A (en) | Plane view generating device and plane view generating method | |
JP2007049276A (en) | On-vehicle panorama camera system | |
CN112802109B (en) | Method for generating aerial view panorama of automobile | |
JP2013024712A (en) | Method and system for calibrating multiple camera | |
KR101331893B1 (en) | Vehicle Installed Camera Extrinsic Parameter Estimation Method and Apparatus | |
KR101293263B1 (en) | Image processing apparatus providing distacnce information in a composite image obtained from a plurality of image and method using the same | |
JP7196920B2 (en) | Driving support device, driving support method, and program | |
JP5580062B2 (en) | Obstacle detection alarm device | |
JP2010004227A (en) | Imaging apparatus | |
Okutsu et al. | Generation of Overhead View Images by Estimating Intrinsic and Extrinsic Camera Parameters of Multiple Fish-Eye Cameras. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130329 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131227 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |