JP2005244861A - Imaging apparatus and imaging system parameter correction method - Google Patents

Imaging apparatus and imaging system parameter correction method Download PDF

Info

Publication number
JP2005244861A
JP2005244861A JP2004055026A JP2004055026A JP2005244861A JP 2005244861 A JP2005244861 A JP 2005244861A JP 2004055026 A JP2004055026 A JP 2004055026A JP 2004055026 A JP2004055026 A JP 2004055026A JP 2005244861 A JP2005244861 A JP 2005244861A
Authority
JP
Japan
Prior art keywords
image
imaging
unit
vanishing point
focal length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004055026A
Other languages
Japanese (ja)
Inventor
Shigo Ri
仕剛 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2004055026A priority Critical patent/JP2005244861A/en
Publication of JP2005244861A publication Critical patent/JP2005244861A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and method for correcting imaging system parameters in the same, in which at the same time unobstructed sky spherical surface images can be obtained. <P>SOLUTION: An imaging apparatus 3 comprises a pair of fish-eye lenses 10l, 10r of which surfaces 11l, 11r, to which external lights are incident are disposed so as to be positioned opposite to each other and in which the angle of view w is 180° or larger; an optical path change element 20 which is disposed between the pair of fish-eye lenses and changes optical paths of the external lights, passed through the fish-eye lenses to propagate the external lights to the same side; and an imaging means 30 capable of capturing object images 50l, 50r formed, based on the external lights of which the optical paths are changed by the optical path change element. In this imaging apparatus 3, a first imaging section 60l is constituted by including one of the pair of fish-eye lenses, the optical path change element and the imaging means, and a second imaging section 60r is constituted by including the other of the pair of fish-eye lenses, the optical path change element and the imaging means. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、全天周球面画像を取得するための撮像装置及びその撮像系パラメータの校正方法に関するものである。   The present invention relates to an imaging apparatus for acquiring an all-round spherical image and a method for calibrating imaging system parameters thereof.

360度の全天周画像を撮像する手法として、例えば、特許文献1に記載の撮像装置を用いた方法がある。特許文献1に記載の撮像装置は、魚眼レンズの光軸を中心とした全視野方向に、その光軸を基準として少なくとも各方向90度の画角を有する魚眼レンズを有する。特許文献1に記載の手法では、空間を1つの球体と考えた際に、その中心に上記撮像装置を配置し、まず、球体のうちの一方向の半球体の画像を取得する。次に、撮像装置を180度回転させて反対方向の半球体の画像を取得する。そして、それぞれの画像を結合して全天周の画像を形成する。
特開2000−221391号公報
As a method of capturing a 360-degree all-sky image, for example, there is a method using an imaging device described in Patent Document 1. The imaging device described in Patent Document 1 includes a fisheye lens having an angle of view of at least 90 degrees in each direction with respect to the optical axis in the entire visual field direction centering on the optical axis of the fisheye lens. In the method described in Patent Document 1, when the space is considered as one sphere, the imaging device is arranged at the center, and first, an image of a hemisphere in one direction among the spheres is acquired. Next, the imaging apparatus is rotated 180 degrees to acquire a hemispherical image in the opposite direction. Then, the images of the entire sky are formed by combining the images.
JP 2000-221391 A

しかしながら、特許文献1に記載の撮像装置を用いた手法では、撮像装置を回転させることによって半球体ごとに異なる時刻に撮影した画像を合成している。そのため、同一時刻における全天周の画像を得ることができない。   However, in the technique using the imaging device described in Patent Document 1, images taken at different times for each hemisphere are synthesized by rotating the imaging device. Therefore, it is not possible to obtain an image of the entire sky at the same time.

そこで、本発明の目的は、同一時刻における全天周の球面画像を得ることができる撮像装置及びその撮像装置における撮像系パラメータの校正方法を提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus that can obtain a spherical image of the entire sky at the same time and a calibration method for imaging system parameters in the imaging apparatus.

上記課題を解決するために、本発明に係る撮像装置は、外光が入射する面が互いに反対側に位置するように配置されており、画角が180度以上の一対の魚眼レンズと、一対の魚眼レンズの間に配置され、各魚眼レンズを通った外光の光路を変更して、それらの外光を同じ側に伝搬させる光路変更素子と、光路変更素子によって光路が変更された外光に基づいて形成される各被写体像を共に撮像できる撮像手段とを備え、上記一対の魚眼レンズの一方と前記光路変更素子と前記撮像手段とを含んで第1の撮像部が構成されており、上記一対の魚眼レンズの他方と前記光路変更素子と前記撮像手段とを含んで第2の撮像部が構成されていることを特徴とする。   In order to solve the above problems, an imaging apparatus according to the present invention is arranged such that surfaces on which external light is incident are located on opposite sides, a pair of fisheye lenses having an angle of view of 180 degrees or more, and a pair of An optical path changing element that is arranged between the fisheye lenses, changes the optical path of the external light passing through each fisheye lens, and propagates the external light to the same side, and the external light whose optical path is changed by the optical path changing element An imaging unit that can capture each of the formed subject images, and includes a first imaging unit including one of the pair of fisheye lenses, the optical path changing element, and the imaging unit, and the pair of fisheye lenses. The second image pickup unit is configured to include the other, the optical path changing element, and the image pickup means.

上記撮像装置では、第1及び第2の撮像部が有する各魚眼レンズによって撮像装置の周りに位置する被写体からの外光が装置内に取り込まれる。各魚眼レンズを通って撮像装置内に取り込まれた外光は、光路変更素子によって撮像手段側に伝搬するように光路が変更される。そして、それらの外光により形成される各被写体像が共に撮像手段によって撮像される。   In the imaging apparatus, external light from a subject located around the imaging apparatus is taken into the apparatus by each fisheye lens included in the first and second imaging units. The optical path of the external light taken into the imaging device through each fisheye lens is changed by the optical path changing element so as to propagate to the imaging means side. Then, both subject images formed by the external light are imaged by the imaging means.

上記撮像装置は、画角が180度以上の一対の魚眼レンズを用いており、それらが上記のように配置されている。そのため、一方の魚眼レンズによって、撮像装置の周囲360度のうちほぼ半分の領域に位置する被写体からの外光が取り込まれ、他方の魚眼レンズから残りのほぼ半分の領域に位置する被写体からの外光が取り込まれる。したがって、第1及び第2の撮像部で共に撮像される各被写体像は、2つ合わせて撮像装置の周囲360度にわたる画像情報を有している。そのため、それらの被写体像を用いることによって全天周の球面画像を形成することが可能である。上記撮像装置では、魚眼レンズを動かさずに各被写体像を共に上述した撮像手段で撮像しているため、同一時刻における全天周の球面画像を得ることができる。   The imaging apparatus uses a pair of fisheye lenses having an angle of view of 180 degrees or more, and they are arranged as described above. Therefore, one fisheye lens captures external light from a subject located in approximately half of the 360 degrees around the imaging device, and external light from the subject located in the other half of the region from the other fisheye lens. It is captured. Accordingly, each of the subject images captured together by the first and second imaging units has image information covering 360 degrees around the imaging device. Therefore, it is possible to form a spherical image of the whole sky by using those subject images. In the imaging apparatus, since the subject images are captured by the above-described imaging means without moving the fisheye lens, a spherical image of the entire sky at the same time can be obtained.

また、本発明に係る撮像装置における上記撮像手段は、1つの撮像素子から構成されていることが好ましい。この場合、第1及び第2の撮像部が有する魚眼レンズによる被写体像を同時に撮像することができる。   Moreover, it is preferable that the said imaging means in the imaging device which concerns on this invention is comprised from one imaging element. In this case, it is possible to simultaneously capture a subject image using a fisheye lens included in the first and second imaging units.

更に、本発明に係る撮像装置における上記光路変更素子は、各魚眼レンズ側に反射面を有する反射鏡であることが好適である。この場合、反射鏡の各魚眼レンズ側の反射面によって各魚眼レンズからの外光を反射することができる。   Furthermore, the optical path changing element in the imaging apparatus according to the present invention is preferably a reflecting mirror having a reflecting surface on each fisheye lens side. In this case, the external light from each fisheye lens can be reflected by the reflecting surface on the fisheye lens side of the reflector.

更にまた、本発明に係る撮像装置においては、上記撮像手段により撮像された各被写体像から、系外の全天周にわたる画像情報を球体の表面に有する球面画像を形成する画像形成手段を備えることが好適である。この画像形成手段によって、上記球面画像を得ることができる。   Furthermore, the imaging apparatus according to the present invention includes image forming means for forming a spherical image having image information on the entire sphere outside the system from each subject image captured by the imaging means. Is preferred. The spherical image can be obtained by this image forming means.

また、本発明に係る撮像装置における上記画像形成手段は、撮像手段によって撮像された各被写体像を、第1及び第2の撮像部が有する魚眼レンズの像面の画像中心及びその魚眼レンズの焦点距離に基づいて、被写体像の画像情報を半球体の表面に有する半球面画像に変換する画像変換部と、画像変換部において得られた各半球面画像を、第1及び第2の撮像部の相対姿勢情報及び各魚眼レンズの像面の画像中心に基づいて結合することによって上記球面画像を形成する画像形成部とを備えることが好適である。   In the imaging apparatus according to the present invention, the image forming unit converts each subject image captured by the imaging unit into the image center of the image plane of the fisheye lens included in the first and second imaging units and the focal length of the fisheye lens. Based on the image conversion unit that converts the image information of the subject image into a hemispherical image on the surface of the hemisphere, and the respective hemispherical images obtained in the image conversion unit are converted into relative orientations of the first and second imaging units. It is preferable to include an image forming unit that forms the spherical image by combining information and the image center of the image plane of each fisheye lens.

上述したように第1及び第2の撮像部で共に取得された各被写体像の画像情報は、系外(撮像装置外)の全天周のほぼ半分毎の画像情報に相当する。したがって、画像変換部で得られる各半球面画像は、上記全天周におけるほぼ半分毎の画像情報を有している。そのため、画像形成部で半球面画像を結合することによって、上述した球面画像を得ることが可能である。   As described above, the image information of each subject image acquired together by the first and second imaging units corresponds to image information for almost half of the entire sky outside the system (outside the imaging device). Therefore, each hemispherical image obtained by the image conversion unit has image information about every half of the whole sky. Therefore, it is possible to obtain the above-described spherical image by combining the hemispherical images in the image forming unit.

更に、本発明に係る撮像装置における上記画像形成手段は、(1)撮像手段で撮像される各被写体像について、異なる方向に延びる2組の平行線群の、被写体像における2組の消失点対を算出する消失点算出部と、(2)第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの像面の画像中心を、消失点算出部において算出された2組の消失点対に基づいて算出する画像中心算出部と、(3)第1及び第2の撮像部が有する魚眼レンズに対して、その魚眼レンズの焦点距離を、消失点算出部において算出された2組の消失点対の少なくとも一方の消失点対間の距離に基づいて算出する焦点距離算出部と、(4)画像中心算出部及び焦点距離算出部で算出された画像中心及び焦点距離に基づいて被写体像から変換される半球面画像に含まれており物体空間における水平線に略平行な直線群の第1消失点及び前記直線群に略直交する直線群の第2消失点に基づいて、第1及び第2の撮像部の相対姿勢情報を取得する姿勢情報取得部と、(5)相対姿勢情報を取得するための各半球面画像に含まれており各魚眼レンズの視野の重複領域に対応する領域における画像の相関に基づいて、焦点距離算出部で算出された焦点距離及び姿勢情報取得部で取得された相対姿勢情報を校正する校正部とを備え、(6)画像変換部は、第1及び第2の撮像部で撮像された被写体像に対して、画像中心算出部によって算出された画像中心及び校正部によって校正された焦点距離に基づいて被写体像を半球面画像に変換し、(7)画像形成部は、画像変換部で得られた各半球面画像を、画像中心算出部によって算出された画像中心及び校正部で校正された相対姿勢情報に基づいて結合して上記球面画像を形成することが好適である。   Further, the image forming means in the image pickup apparatus according to the present invention includes (1) two sets of vanishing point pairs in a subject image of two sets of parallel lines extending in different directions for each subject image picked up by the image pickup means. And (2) two sets of vanishing point pairs calculated by the vanishing point calculating unit with respect to the image center of the image plane of the fisheye lens with respect to the fisheye lens of the first and second imaging units. And (3) two sets of vanishing point pairs calculated by the vanishing point calculating unit for the focal length of the fisheye lens with respect to the fisheye lens included in the first and second imaging units. A focal length calculation unit that calculates based on the distance between at least one of the vanishing point pairs, and (4) an object image that is converted based on the image center and focal length calculated by the image center calculation unit and the focal length calculation unit. Hemispherical image Relative posture information of the first and second imaging units is obtained based on the first vanishing point of the straight line group that is rare and parallel to the horizontal line in the object space, and the second vanishing point of the straight line group that is substantially orthogonal to the straight line group. And (5) focal length calculation based on the correlation of images in the area corresponding to the overlapping area of the field of view of each fisheye lens included in each hemispherical image for acquiring relative attitude information. A calibration unit that calibrates the relative orientation information acquired by the focal length and orientation information acquisition unit calculated by the unit, and (6) the image conversion unit is a subject image captured by the first and second imaging units. On the other hand, the subject image is converted into a hemispherical image based on the image center calculated by the image center calculation unit and the focal length calibrated by the calibration unit, and (7) the image forming unit is obtained by the image conversion unit. Each hemispherical image It is preferable to form the spherical image combined with on the basis of the calibrated relative orientation information in the image center and the calibration unit calculated by the section.

この場合、物体空間における上記2組の平行線群の、被写体像における2組の消失点対が消失点算出部によって算出され、この2組の消失点対に基づいて、各魚眼レンズの像面の画像中心が画像中心算出部によって求められる。これにより、各魚眼レンズの像面の画像中心が校正される。   In this case, two pairs of vanishing points in the subject image of the two sets of parallel lines in the object space are calculated by the vanishing point calculation unit, and based on the two pairs of vanishing points, the image plane of each fisheye lens is calculated. The image center is obtained by the image center calculation unit. Thereby, the image center of the image plane of each fisheye lens is calibrated.

更に、焦点距離算出部によって、上記2組の消失点対の少なくとも一方の消失点対間の距離に基づいて各魚眼レンズの焦点距離が求められる。また、上述のように算出された画像中心及び焦点距離を用いて被写体像から変換される半球面画像内の上記第1消失点及び第2消失点を利用して、第1及び第2の撮像部の相対姿勢情報が、姿勢情報取得部で取得される。その相対姿勢情報及び焦点距離が更に校正部によって校正される。このため、上記焦点距離及び相対姿勢情報はより正確な値になっている。   Further, the focal length calculation unit determines the focal length of each fisheye lens based on the distance between at least one of the two vanishing point pairs. Further, the first and second imaging are performed using the first vanishing point and the second vanishing point in the hemispherical image converted from the subject image using the image center and the focal length calculated as described above. The relative posture information of the part is acquired by the posture information acquisition unit. The relative attitude information and focal length are further calibrated by the calibration unit. For this reason, the focal length and the relative posture information are more accurate values.

そして、画像変換部において、上記画像中心算出部で算出された画像中心、及び、校正部で構成された焦点距離を用いて、被写体像が半球面画像に変換される。更に、その半球面画像が、校正部で校正された相対姿勢情報及び上記画像中心を利用して球面画像に結合される。上記のように、校正された画像中心及び焦点距離に基づいて得られた2つの半球面画像を、その画像中心及び相対姿勢情報に基づいて結合しているため、その結合領域での画像のずれが低減される。   Then, the image conversion unit converts the subject image into a hemispherical image using the image center calculated by the image center calculation unit and the focal length formed by the calibration unit. Further, the hemispherical image is combined with the spherical image using the relative posture information calibrated by the calibrating unit and the image center. As described above, since the two hemispherical images obtained based on the calibrated image center and focal length are combined based on the image center and relative posture information, the image shift in the combined region Is reduced.

また、本発明に係る撮像系パラメータ校正方法は、(1)上述した一対の魚眼レンズと光路変更素子と撮像手段と、を備える撮像装置が有しており、上記一対の魚眼レンズの一方と前記光路変更素子と前記撮像手段とを含んで構成される第1の撮像部及び上記一対の魚眼レンズの他方と前記光路変更素子と前記撮像手段とを含んで構成される第2の撮像部それぞれによって撮像される被写体像に対して、異なる方向に延びている2組の平行線群の、被写体像における2組の消失点対を、算出する消失点算出工程と、(2)第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの像面の画像中心を、消失点算出工程で算出された2組の消失点対に基づいて算出する画像中心算出工程と、(3)第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの焦点距離を、消失点算出工程で算出された2組の消失点対の少なくとも一方の消失点対間の距離に基づいて算出する焦点距離算出工程と、(4)撮像手段によって撮像された各被写体像を、画像中心算出工程及び焦点距離算出工程で算出された画像中心及び焦点距離に基づいて、被写体像の画像情報を半球体の表面に有する半球面画像に変換する画像変換工程と、(5)画像変換工程において得られた各半球面画像に含まれており物体空間における水平線に略平行な直線群の第1消失点及び前記直線群に略直交する直線群の第2消失点に基づいて、第1及び第2の撮像部の相対姿勢情報を取得する姿勢情報取得工程と、(6)相対姿勢情報を取得するための各半球面画像に含まれており各魚眼レンズの視野の重複領域に対応する領域における画像の相関に基づいて焦点距離算出工程で算出された焦点距離及び姿勢情報取得工程で取得された相対姿勢情報を校正する校正工程とを備えることを特徴とする。   The imaging system parameter calibration method according to the present invention includes (1) an imaging apparatus including the above-described pair of fish-eye lenses, an optical path changing element, and imaging means, and one of the pair of fish-eye lenses and the optical path changing. Images are taken by a first imaging unit including an element and the imaging unit, and a second imaging unit including the other of the pair of fisheye lenses, the optical path changing element, and the imaging unit. A vanishing point calculating step of calculating two vanishing point pairs in the subject image of two sets of parallel lines extending in different directions with respect to the subject image; and (2) first and second imaging units. An image center calculation step of calculating the image center of the image plane of the fisheye lens based on the two pairs of vanishing points calculated in the vanishing point calculation step, and (3) first and second Fisheye lens in the imaging unit On the other hand, a focal length calculation step for calculating a focal length of the fisheye lens based on a distance between at least one vanishing point pair of the two vanishing point pairs calculated in the vanishing point calculation step; An image for converting each subject image captured by the image information into a hemispherical image having the image information of the subject image on the surface of the hemisphere based on the image center and the focal length calculated in the image center calculating step and the focal length calculating step. A conversion step; and (5) a first vanishing point of a straight line group that is included in each hemispherical image obtained in the image conversion step and is substantially parallel to a horizontal line in the object space, and a first straight line group that is substantially orthogonal to the straight line group. (2) a posture information acquisition step for acquiring relative posture information of the first and second imaging units based on two vanishing points; and (6) each fisheye lens included in each hemispherical image for acquiring the relative posture information. Overlapping fields of view Characterized in that it comprises a calibration step of calibrating the relative position information acquired by the focal length and orientation obtaining step calculated by the focal length calculating step based on a correlation of the image in the corresponding region.

この撮像系パラメータ校正方法では、消失点算出工程において算出される2組の消失点対に基づいて各魚眼レンズの像面の画像中心が算出される。また、上記2組の消失点の少なくとも一方を用いて各魚眼レンズの焦点距離が算出される。   In this imaging system parameter calibration method, the image center of the image plane of each fisheye lens is calculated based on the two pairs of vanishing points calculated in the vanishing point calculation step. Further, the focal length of each fisheye lens is calculated using at least one of the two sets of vanishing points.

次に、このようにして算出された各魚眼レンズの像面の画像中心と各魚眼レンズの焦点距離とに基づいて、第1及び第2の撮像部によって共に撮像された被写体像それぞれを半球面画像に変換する。魚眼レンズが画角180度以上を有しているので、半球面画像それぞれには上述した第1消失点及び第2消失点が現れている。上記姿勢情報取得工程では、この第1消失点及び第2消失点を利用して第1の撮像部と第2の撮像部の相対姿勢情報を取得する。   Next, based on the image center of the image plane of each fisheye lens calculated in this way and the focal length of each fisheye lens, each of the subject images imaged together by the first and second imaging units is converted into a hemispherical image. Convert. Since the fisheye lens has an angle of view of 180 degrees or more, the first vanishing point and the second vanishing point described above appear in each hemispherical image. In the posture information acquisition step, relative posture information of the first imaging unit and the second imaging unit is acquired using the first vanishing point and the second vanishing point.

また、魚眼レンズの画角が180度以上であるため、各魚眼レンズの視野に重複領域がある。その重複領域に相当する各半球面画像内の領域の画像特性はほぼ一致するため、その領域における画像の相関を取ることによって、焦点距離算出工程で算出された焦点距離、及び、姿勢情報取得工程で取得された相対姿勢情報を更に校正する。なお、画像の相関は、例えば、輝度情報が一致するようにすれば良い。   Further, since the angle of view of the fisheye lens is 180 degrees or more, there is an overlapping region in the field of view of each fisheye lens. Since the image characteristics of the regions in the respective hemispherical images corresponding to the overlapping regions substantially match, the focal length calculated in the focal length calculation step and the posture information acquisition step are obtained by taking the correlation of the images in that region. The relative posture information acquired in step 1 is further calibrated. The correlation between the images may be such that, for example, the luminance information matches.

上記校正方法では、画像中心は、2組の平行線群の、被写体像における2組の消失点対に基づいて算出されることによって校正されている。そして、焦点距離算出工程及び姿勢情報取得工程で得られた焦点距離及び相対姿勢情報は、校正工程で更に校正される。したがって、上記校正方法によって、撮像装置の撮像系パラメータである画像中心、焦点距離及び相対姿勢情報はより正確になる。   In the above calibration method, the image center is calibrated by calculating based on two pairs of vanishing points in the subject image of the two sets of parallel lines. Then, the focal length and the relative posture information obtained in the focal length calculation step and the posture information acquisition step are further calibrated in the calibration step. Therefore, the above-described calibration method makes the image center, focal length, and relative posture information, which are imaging system parameters of the imaging apparatus, more accurate.

そのため、上述のように、全天周球面画像を、第1及び第2の撮像部で撮像された各被写体像の画像情報を有する各半球面画像を結合して形成する場合、その結合部における画像のずれを低減できる。   Therefore, as described above, when the spherical image is formed by combining each hemispherical image having image information of each subject image captured by the first and second imaging units, Image shift can be reduced.

更に、本発明に係る撮像系パラメータ校正方法における姿勢情報取得工程は、基準座標系における第1消失点の位置ベクトル及び第2消失点の位置ベクトルから第1の撮像部の座標系における第1消失点の位置ベクトル及び第2消失点の位置ベクトルに変換する第1の変換行列を算出する第1の行列算出工程と、基準座標系における第1消失点の位置ベクトル及び第2消失点の位置ベクトルから第2の撮像部の座標系における第1消失点の位置ベクトル及び第2消失点の位置ベクトルに変換する第2の変換行列を算出する第2の行列算出工程と、第1及び第2の変換行列に基づいて第1の撮像部の座標系から第2の撮像部の座標系に変換する第3の変換行列を算出する第3の行列算出工程とを備えることが好適である。   Further, the posture information acquisition step in the imaging system parameter calibration method according to the present invention includes the first erasure in the coordinate system of the first imaging unit from the position vector of the first vanishing point and the position vector of the second vanishing point in the reference coordinate system. A first matrix calculation step of calculating a first transformation matrix to be converted into a point position vector and a second vanishing point position vector, and a first vanishing point position vector and a second vanishing point position vector in the reference coordinate system; A second matrix calculating step of calculating a second transformation matrix to be converted into a position vector of the first vanishing point and a position vector of the second vanishing point in the coordinate system of the second imaging unit, and the first and second It is preferable to include a third matrix calculating step of calculating a third conversion matrix for converting from the coordinate system of the first imaging unit to the coordinate system of the second imaging unit based on the conversion matrix.

これにより、各半球面画像の第1消失点及び第2消失点に基づいて、第1の撮像部の座標系から第2の撮像部の座標系に変換する第3の変換行列を算出することができる。この第3の変換行列は、第1の撮像部と第2の撮像部との相対姿勢情報に相当する。   Thereby, based on the first vanishing point and the second vanishing point of each hemispherical image, calculating a third conversion matrix for converting from the coordinate system of the first imaging unit to the coordinate system of the second imaging unit. Can do. This third transformation matrix corresponds to relative posture information between the first imaging unit and the second imaging unit.

本発明によれば、同一時刻における全天周の球面画像を得ることができる撮像装置及びその撮像装置における撮像系パラメータの校正方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can obtain the spherical image of the whole sky at the same time, and the calibration method of the imaging system parameter in the imaging device can be provided.

以下、図を参照して本発明の好適な実施形態について説明する。尚、以下の説明においては、同一の要素には同一の符号を用いることとし重複する説明は省略する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following description, the same reference numerals are used for the same elements, and redundant descriptions are omitted.

まず、本実施形態の撮像装置で得るべき球面画像について説明する。本実施形態において球面画像とは、系外の全天周(周囲360度)に位置する各被写体の画像情報が球体の表面に投影されたものである。図1を参照してより具体的に説明する。   First, a spherical image to be obtained with the imaging apparatus of the present embodiment will be described. In the present embodiment, a spherical image is a projection of image information of each subject located on the entire sky outside the system (around 360 degrees) on the surface of a sphere. A more specific description will be given with reference to FIG.

図1は、球面画像を説明する図である。図1に示すように、空間上に単位半径の球体1を考え、その中心Oを原点として互いに直交するX軸、Y軸、Z軸を設定する。空間上の任意の点P(iは任意の整数)と球の中心Oとを結ぶ球体の表面2上の点をpとする。点pと原点Oとを結ぶ直線のZ軸からの仰角をθとし、X軸からの方位角をφとすると、点pの位置ベクトルは、次のように表される。

Figure 2005244861
この点pは点Pが球体の表面へ投影された点に相当する。すなわち、点Pからの光が中心Oに向かって進んでいるときに球体1の表面2と交わる点がpであり、点pは点Pからの光が担う画像を形成するために必要な情報(画像情報)を有している。したがって、球体1の表面2には、中心Oから見ることができる、系外の周囲360度に位置する被写体を投影することができる。このように画像情報を有している球体1の表面2が球面画像に相当する。 FIG. 1 is a diagram for explaining a spherical image. As shown in FIG. 1, a sphere 1 having a unit radius is considered in space, and an X axis, a Y axis, and a Z axis that are orthogonal to each other with the center O as an origin are set. A point on the surface 2 of the sphere connecting an arbitrary point P i (i is an arbitrary integer) in space and the center O of the sphere is defined as pi . When the elevation angle from the Z axis of the straight line connecting the point p i and the origin O is θ i and the azimuth angle from the X axis is φ i , the position vector of the point p i is expressed as follows.
Figure 2005244861
This point p i corresponds to a point where the point P i is projected onto the surface of the sphere. That is, when the light from the point P i is traveling toward the center O, the point that intersects the surface 2 of the sphere 1 is p i , and the point p i forms an image carried by the light from the point P i. Necessary information (image information). Accordingly, a subject located at 360 degrees outside the system that can be seen from the center O can be projected onto the surface 2 of the sphere 1. Thus, the surface 2 of the sphere 1 having image information corresponds to a spherical image.

本実施形態の撮像装置は、このような球面画像を一度の撮影によって得ることができることを特徴とする。   The imaging apparatus of the present embodiment is characterized in that such a spherical image can be obtained by one shooting.

図2及び図3を参照して本実施形態の撮像装置3について説明する。図2は、本実施形態の撮像装置3の構成を示す模式図である。撮像装置3は、一対の魚眼レンズ10l,10rと、直角ミラー(光路変更素子)20と、撮像素子(撮像手段)30と、画像形成手段40とを含んで構成される。   The imaging device 3 of the present embodiment will be described with reference to FIGS. FIG. 2 is a schematic diagram illustrating a configuration of the imaging device 3 of the present embodiment. The imaging device 3 includes a pair of fish-eye lenses 10l and 10r, a right angle mirror (optical path changing element) 20, an imaging element (imaging means) 30, and an image forming means 40.

魚眼レンズ10l,10rは、画角wが185度であって、外光が入射する面11l,11rが互いに反対側に位置するように配置されている。本実施形態において、魚眼レンズ10l,10rとは、必ずしも1つのレンズを意味するものではなく、画角wが180度以上になるように設計され魚眼レンズ特性を有するレンズ系をも含んでいる意味である。図2の魚眼レンズ10l,10rは、全天周のほぼ半分の領域に位置する被写体を像面に投影する。言い換えれば、図1の球体1の半球体の表面上の画像情報を像面に投影する。魚眼レンズ10l,10rの射影方式は、等距離射影方式ある。   The fish-eye lenses 10l and 10r are arranged so that the angle of view w is 185 degrees and the surfaces 11l and 11r on which external light is incident are located on opposite sides. In the present embodiment, the fish-eye lenses 10l and 10r do not necessarily mean one lens, but also include a lens system designed to have an angle of view w of 180 degrees or more and having fish-eye lens characteristics. . The fish-eye lenses 10l and 10r in FIG. 2 project a subject located in an almost half area of the whole sky to the image plane. In other words, the image information on the surface of the hemisphere of the sphere 1 in FIG. 1 is projected onto the image plane. The projection method of the fisheye lenses 10l and 10r is an equidistant projection method.

直角ミラー20は、一対の魚眼レンズ10l,10rの間であって各魚眼レンズ10l,10rの光軸上に配置されている。直角ミラー20は、各魚眼レンズ10l,10r側それぞれに反射面21l,21rを有しており、反射面21l,21rは互いに直交している。直角ミラー20は、各魚眼レンズ10l,10rからほぼ等距離に配置されている。魚眼レンズ10l,10rから入射した被写体からの外光それぞれは、その光路が反射面21l,21rによって略直角に曲げられて撮像素子30側に伝搬するようになっている。すなわち、直角ミラー20は、一対の魚眼レンズ10l,10rの間に配置され、各魚眼レンズ10l,10rを通った外光の光路を変更して、それらの外光を同じ側に伝搬させる反射鏡であって光路変更素子として機能している。   The right angle mirror 20 is disposed between the pair of fisheye lenses 10l and 10r and on the optical axis of each fisheye lens 10l and 10r. The right angle mirror 20 has reflecting surfaces 21l and 21r on the fisheye lens 10l and 10r sides, respectively, and the reflecting surfaces 21l and 21r are orthogonal to each other. The right angle mirror 20 is disposed at an approximately equal distance from each of the fisheye lenses 10l and 10r. The external light from the subject incident from the fish-eye lenses 10l and 10r is propagated to the image sensor 30 side with its optical path bent at substantially right angles by the reflecting surfaces 21l and 21r. In other words, the right-angle mirror 20 is a reflector that is disposed between the pair of fisheye lenses 10l and 10r, changes the optical path of the external light that has passed through the fisheye lenses 10l and 10r, and propagates the external light to the same side. Functions as an optical path changing element.

撮像素子30は、その撮像素子30が有しており複数の画素からなる受光面31が、各魚眼レンズ10l,10rの直角ミラー20を介した結像面(以下、単に「像面」ともいう)に位置するように配置されている。撮像素子30は、例えば、複数の画素が平面上に配置されたCCD(Charge Coupled Device)である。   The imaging element 30 has an imaging plane (hereinafter, also simply referred to as “image plane”) in which the imaging element 30 has a light receiving surface 31 composed of a plurality of pixels via the right angle mirror 20 of each fisheye lens 10l, 10r. It is arranged to be located in. The imaging element 30 is, for example, a CCD (Charge Coupled Device) in which a plurality of pixels are arranged on a plane.

図2(b)は、撮像素子30の受光面31の平面図である。受光面31は、互いに隣接した第1及び第2の受光領域31l,31rを有している。図2(b)中、二点鎖線は仮想的な線であって、受光面31は1つである(すなわち、撮像素子30は1つである)。第1の受光領域31lに魚眼レンズ10lによる被写体像50lが結像され、第2の受光領域31rに魚眼レンズ10rによる被写体像50rが結像される。撮像素子30は、魚眼レンズ10l,10rに入射した被写体からの外光によって形成される被写体像50l,50rを同時に取得する。   FIG. 2B is a plan view of the light receiving surface 31 of the image sensor 30. The light receiving surface 31 has first and second light receiving regions 31l and 31r adjacent to each other. In FIG. 2B, the two-dot chain line is an imaginary line and has one light receiving surface 31 (that is, one image sensor 30). A subject image 50l by the fisheye lens 10l is formed in the first light receiving region 31l, and a subject image 50r by the fisheye lens 10r is formed in the second light receiving region 31r. The image sensor 30 simultaneously acquires subject images 50l and 50r formed by external light from the subject incident on the fisheye lenses 10l and 10r.

上記構成では、撮像装置3は、魚眼レンズ10lと直角ミラー20と撮像素子30とを含んで構成される第1の撮像部60lを有している。また、撮像装置3は、魚眼レンズ10rと直角ミラー20と撮像素子30とを含んで構成される第2の撮像部60rを有している。   In the above configuration, the imaging device 3 includes the first imaging unit 60l configured to include the fisheye lens 101, the right-angle mirror 20, and the imaging element 30. In addition, the imaging device 3 includes a second imaging unit 60 r configured to include the fish-eye lens 10 r, the right angle mirror 20, and the imaging element 30.

図2(a)を参照すると、撮像素子30上に結像され取得された各被写体像50l,50rは、受光面31を構成する画素ごとに電気信号に変換されて画像形成手段40に入力される。   Referring to FIG. 2A, the subject images 50 l and 50 r formed and acquired on the image sensor 30 are converted into electric signals for each pixel constituting the light receiving surface 31 and input to the image forming unit 40. The

図3は、画像形成手段40のブロック図である。画像形成手段40は、CPUなどを備えたいわゆるコンピュータであり、撮像素子30で取得された一対の被写体像50l,50rから球面画像を形成する。画像形成手段40は、パラメータ格納部41と、画像変換部42と、画像形成部43とを含んでいる。パラメータ格納部41は、撮像装置3の撮像系パラメータである魚眼レンズ10l,10rの像面の画像中心OIl,OIrの位置座標、魚眼レンズ10l,10rの焦点距離f,f、及び、第1及び第2の撮像部60l,60rの相対姿勢情報を格納している。 FIG. 3 is a block diagram of the image forming unit 40. The image forming means 40 is a so-called computer having a CPU and the like, and forms a spherical image from a pair of subject images 50l and 50r acquired by the image sensor 30. The image forming unit 40 includes a parameter storage unit 41, an image conversion unit 42, and an image forming unit 43. The parameter storage unit 41 is the imaging system parameters of the imaging device 3, the position coordinates of the image centers O Il and O Ir on the image planes of the fish-eye lenses 10 l and 10 r, the focal lengths f l and f r of the fish-eye lenses 10 l and 10 r , and the first The relative posture information of the first and second imaging units 60l and 60r is stored.

画像変換部42は、平面画像である被写体像50lを、その被写体像50lが有する画像情報を半球体の表面に有する半球面画像に変換する。また、画像変換部42は、平面画像である被写体像50rを、その被写体像50rが有する画像情報を半球体の表面に有する半球面画像に変換する。   The image conversion unit 42 converts the subject image 50l that is a planar image into a hemispherical image having image information of the subject image 50l on the surface of the hemisphere. The image conversion unit 42 converts the subject image 50r, which is a planar image, into a hemispherical image having the image information of the subject image 50r on the surface of the hemisphere.

図4を参照して、被写体像を半球面画像に変換するための原理について説明する。図4(a)は魚眼レンズの結像特性を説明するための図である。図4(a)は、魚眼レンズが中心Oに位置しており、魚眼レンズの視野内の点P(図1のPに相当)からの外光が魚眼レンズに入射している状態を示している。なお、ここでは、説明を簡便化するため図4に記載の魚眼レンズの画角は180度としている。 The principle for converting a subject image into a hemispherical image will be described with reference to FIG. FIG. 4A is a diagram for explaining the imaging characteristics of the fisheye lens. FIG. 4A shows a state where the fisheye lens is located at the center O, and external light from a point P i (corresponding to P i in FIG. 1) in the field of view of the fisheye lens is incident on the fisheye lens. . Here, in order to simplify the explanation, the angle of view of the fisheye lens shown in FIG. 4 is 180 degrees.

図4(b)は、魚眼レンズの像面50を示す図である。等距離射影方式の魚眼レンズでは、図4(a)に示す点Pは、図4(b)の像面50において、位置座標(ri,φ)で表される点qに投影される。すなわち、点Pは、方位角φは変わらず、画像中心Oからの距離rが次の式で表される点qに投影される。

Figure 2005244861
ここで、fは、魚眼レンズの焦点距離である。(式2)より、仰角θは、以下の式から算出される。
Figure 2005244861
(式3)を(式1)に代入すると、以下の式が得られる。
Figure 2005244861
図4に示す点qは、図1の点Pの平面上への投影点であって、図1において点Pを球体1の表面2上に投影した点pに対応している。ところで、点piと点qiとで方位角φiは一致している。したがって、(式4)は、点qの位置座標から点piの位置座標を得ることができることを示している。 FIG. 4B is a diagram illustrating the image plane 50 of the fisheye lens. In the equidistant projection type fisheye lens, the point P i shown in FIG. 4A is projected onto the point q i represented by the position coordinates (r i , φ i ) on the image plane 50 in FIG. 4B. The That is, the point P i does not change the azimuth angle φ i and the distance r i from the image center O I is projected to the point q i represented by the following expression.
Figure 2005244861
Here, f is the focal length of the fisheye lens. From (Expression 2), the elevation angle θ i is calculated from the following expression.
Figure 2005244861
Substituting (Equation 3) into (Equation 1) yields the following equation:
Figure 2005244861
A point q i shown in FIG. 4 is a projection point on the plane of the point P i in FIG. 1, and corresponds to a point p i which is obtained by projecting the point P i on the surface 2 of the sphere 1 in FIG. . By the way, the azimuth angle φ i coincides with the point p i and the point q i . Therefore, (Expression 4) indicates that the position coordinates of the point p i can be obtained from the position coordinates of the point q i .

ここで、魚眼レンズで得られる被写体像は点qの集まりである。したがって、被写体像を構成している各画素(すなわち、点q)の位置座標を特定することによって被写体像を半球面画像に変換することができる。 Here, the subject image obtained with the fisheye lens is a collection of points q i . Therefore, the subject image can be converted into a hemispherical image by specifying the position coordinates of each pixel (that is, the point q i ) constituting the subject image.

なお、上述したように撮像素子30で取得された被写体像50l,50rは、画素ごとに電気信号に変換されているため、被写体像を構成している各画素の位置は、撮像素子30の画素の位置に対応させて取得することができる。   Since the subject images 50l and 50r acquired by the image sensor 30 are converted into electric signals for each pixel as described above, the position of each pixel constituting the subject image is the pixel of the image sensor 30. Can be obtained in correspondence with the position of.

以下の説明では、第1及び第2の撮像部60l,60rで取得された各被写体像から得られる半球面画像それぞれを、第1及び第2の半球面画像と称す。この第1及び第2の半球面画像は、第1及び第2の撮像部60l,60rの極座標系で表される。この際、画像中心OIl,OIrは、魚眼レンズ10l,10rの光学中心に対応する。 In the following description, the hemispherical images obtained from the subject images acquired by the first and second imaging units 60l and 60r are referred to as first and second hemispherical images, respectively. The first and second hemispherical images are represented by polar coordinate systems of the first and second imaging units 60l and 60r. At this time, the image centers O Il and O Ir correspond to the optical centers of the fish-eye lenses 10 l and 10 r.

図3を参照すると、画像形成部43は、画像変換部42において得られる第1及び第2の半球面画像を、第1及び第2の撮像部60l,60rの相対姿勢情報、及び、画像中心OIl,OIrに基づいて合成して球面画像を形成する。より具体的には、第1及び第2の半球面画像の画像中心OIl,OIrを一致させ、第1及び第2の半球面画像が互いに反対向きになるように結合して球面画像を形成する。 Referring to FIG. 3, the image forming unit 43 uses the first and second hemispherical images obtained by the image converting unit 42 as the relative posture information of the first and second imaging units 60l and 60r, and the image center. A spherical image is formed by combining on the basis of O Il and O Ir . More specifically, the image centers O Il and O Ir of the first and second hemispherical images are matched, and the first and second hemispherical images are combined so as to be opposite to each other, thereby combining the spherical images. Form.

上記のように球面画像は、撮像系パラメータ(画像中心、焦点距離、相対姿勢情報)を利用して形成されている。したがって、撮像系パラメータが撮像装置3において校正される必要がある。   As described above, the spherical image is formed using the imaging system parameters (image center, focal length, and relative posture information). Therefore, the imaging system parameters need to be calibrated in the imaging device 3.

再度図3を参照すると、上記画像形成手段40は、撮像系パラメータを校正するための、消失点算出部44と、画像中心算出部45と、焦点距離算出部46と、姿勢情報取得部47と、校正部48とを有している。   Referring to FIG. 3 again, the image forming unit 40 includes a vanishing point calculation unit 44, an image center calculation unit 45, a focal length calculation unit 46, and an attitude information acquisition unit 47 for calibrating the imaging system parameters. And a calibration unit 48.

消失点算出部44は、撮像素子30で撮像された被写体像50l,50rに基づいて、物体空間において異なる方向に延びる2組の平行線群の、被写体像における2組の消失点対を算出する。2組の平行線群とは、互いに斜交する2本の直線にそれぞれ略平行な直線群を意味している。また、消失点とは、平行線群に含まれる互いに平行な複数の直線が無限遠で交わる点である。魚眼レンズ10l,10rは、画角wが185度であるため、消失点は被写体像50l,50r中に現れる。なお、直線はある1点を基準にするとその両側に延びているので、各被写体像50l,50rには、一対の消失点(すなわち、消失点対)が現れる。   The vanishing point calculation unit 44 calculates two sets of vanishing point pairs in the subject image of two sets of parallel lines extending in different directions in the object space, based on the subject images 50l and 50r captured by the image sensor 30. . The two sets of parallel line groups mean straight line groups substantially parallel to two straight lines that are oblique to each other. The vanishing point is a point where a plurality of parallel straight lines included in the parallel line group intersect at infinity. Since the fisheye lenses 10l and 10r have an angle of view w of 185 degrees, vanishing points appear in the subject images 50l and 50r. Since the straight line extends on both sides with respect to a certain point, a pair of vanishing points (that is, a vanishing point pair) appears in each of the subject images 50l and 50r.

消失点算出部44は、互いに斜交する2組の平行線群の被写体像から上記2組の消失点対の位置座標を算出してもよい。また、消失点算出部44は、1つの平行線群(第1の平行線群)の被写体像から1つの消失点対を算出し、第1の平行線群を構成する直線と異なる方向に延びている直線から構成される平行線群(第2の平行線群)の被写体像から他の消失点対を算出してもよい。   The vanishing point calculation unit 44 may calculate the position coordinates of the two pairs of vanishing points from the subject images of the two sets of parallel lines that are oblique to each other. Further, the vanishing point calculation unit 44 calculates one vanishing point pair from the subject image of one parallel line group (first parallel line group), and extends in a direction different from the straight line constituting the first parallel line group. Another vanishing point pair may be calculated from a subject image of a parallel line group (second parallel line group) formed of straight lines.

消失点算出の原理について説明する。物体空間における直線は、魚眼レンズの像面では(被写体像中では)円錐曲線になる。そこで、まず、被写体像において、上記平行線群に含まれる直線に対応する曲線を円錐曲線でフィッティングして複数の円錐曲線関数f(x,y)を算出する。フィッティングする場合には、フィッティングによる誤差を低減するために、最小二乗法を用いる。 The principle of vanishing point calculation will be described. The straight line in the object space becomes a conic curve in the image plane of the fisheye lens (in the subject image). Therefore, first, in a subject image, a plurality of conic curve functions f j (x, y) are calculated by fitting a curve corresponding to a straight line included in the parallel line group with a conic curve. In the case of fitting, a least square method is used to reduce errors due to fitting.

そして、消失点は被写体像中に現れている(平面上に位置する)ため、消失点の位置座標を(x,y)としたときにf(x,y)=0が成立する。更に、理論的には消失点において各円錐曲線は互いに交差しているため、再度最小二乗法を適用することによって消失点の位置座標(x,y)を算出することができる。 Since the vanishing point appears in the subject image (located on the plane), f j (x v , y v ) = 0 is obtained when the position coordinates of the vanishing point are (x v , y v ). To establish. Further, theoretically, since the conic curves intersect each other at the vanishing point, the position coordinates (x v , y v ) of the vanishing point can be calculated by applying the least square method again.

消失点算出部44は、被写体像50lにおいて2組の消失点対を算出し、被写体像50rにおいて2組の消失点対を算出する。   The vanishing point calculation unit 44 calculates two sets of vanishing point pairs in the subject image 50l and calculates two sets of vanishing point pairs in the subject image 50r.

画像中心算出部45は、消失点算出部44において算出された2組の消失点対の位置座標を消失点算出部44から取得し、各消失点対を結ぶ2本の直線の交点として、魚眼レンズの像面における画像中心Oを算出する。 The image center calculating unit 45 acquires the position coordinates of the two vanishing point pairs calculated by the vanishing point calculating unit 44 from the vanishing point calculating unit 44, and uses the fish-eye lens as an intersection of two straight lines connecting each vanishing point pair. The image center O I in the image plane is calculated.

画像中心算出部45は、第1及び第2の撮像部60l,60rが有する魚眼レンズ10l,10rの像面それぞれに対して画像中心OIl,OIrを算出する。画像中心算出部45は、この画像中心OIl,OIrの位置座標をパラメータ格納部41に格納する。 The image center calculation unit 45 calculates the image centers O Il and O Ir for the image planes of the fisheye lenses 10 l and 10 r included in the first and second imaging units 60 l and 60 r. The image center calculation unit 45 stores the position coordinates of the image centers O Il and O Ir in the parameter storage unit 41.

焦点距離算出部46は、消失点算出部44において算出された2組の消失点対の位置座標を消失点算出部44から取得して、次式から魚眼レンズの焦点距離fを算出する。

Figure 2005244861
ここで、rπは、1組の消失点間の距離である。 The focal length calculation unit 46 acquires the position coordinates of the two pairs of vanishing points calculated by the vanishing point calculation unit 44 from the vanishing point calculation unit 44, and calculates the focal length f of the fisheye lens from the following equation.
Figure 2005244861
Here, r π is the distance between a set of vanishing points.

焦点距離算出部46は、魚眼レンズ10lについて、対応する2組の消失点対の少なくとも一方を用いてその焦点距離fを算出する。焦点距離算出部46は、魚眼レンズ10rについても、対応する2組の消失点対の少なくとも一方を用いて焦点距離fを算出する。焦点距離算出部46は、これらの焦点距離f,fをパラメータ格納部41に格納する。 Focal length calculating unit 46, the fish-eye lens 10l, using at least one of the corresponding two sets of vanishing point pairs to calculate the focal length f l. Focal length calculating unit 46, for the fish-eye lens 10r, it calculates a focal length f r by using at least one of the corresponding two sets of vanishing point pairs. The focal length calculation unit 46 stores these focal lengths f l and fr in the parameter storage unit 41.

姿勢情報取得部47は、第1及び第2の撮像部60l,60rの相対姿勢情報を取得する。本実施形態において相対姿勢情報とは、第1の撮像部60lの極座標系から第2の撮像部60rの極座標系への回転行列(第3の変換行列)を意味する。   The posture information acquisition unit 47 acquires the relative posture information of the first and second imaging units 60l and 60r. In the present embodiment, the relative posture information means a rotation matrix (third conversion matrix) from the polar coordinate system of the first imaging unit 60l to the polar coordinate system of the second imaging unit 60r.

第1の撮像部60lの極座標系から第2の撮像部60rの極座標系への回転行列(相対姿勢情報)を取得する原理を説明する。姿勢情報取得部47は、魚眼レンズ10l,10rの画角wが185度であることから第1及び第2の半球面画像に消失点が現れていることを利用して、相対姿勢情報を取得する。以下により具体的に説明する。   The principle of acquiring a rotation matrix (relative attitude information) from the polar coordinate system of the first imaging unit 60l to the polar coordinate system of the second imaging unit 60r will be described. The posture information acquisition unit 47 acquires the relative posture information using the vanishing points appearing in the first and second hemispherical images because the angle of view w of the fisheye lenses 10l and 10r is 185 degrees. . More specific description will be given below.

第1及び第2の撮像部60l,60rによって得られた被写体像50l,50rから変換された第1及び第2の半球面画像は、第1及び第2の撮像部60l,60rの極座標系を用いてあらわされている。通常、第1及び第2の半球面画像それぞれには、物体空間における水平線に略平行な直線群の像及びその消失点(以下、「第1消失点」という)、並びに、水平線に直交する方向(鉛直方向)に延びる直線に略平行な直線群の像及びその消失点(以下、「第2消失点」という)が現れている。   The first and second hemispherical images converted from the subject images 50l and 50r obtained by the first and second imaging units 60l and 60r are the polar coordinate systems of the first and second imaging units 60l and 60r. It is expressed using. Usually, each of the first and second hemispherical images includes an image of a straight line group substantially parallel to the horizontal line in the object space, its vanishing point (hereinafter referred to as “first vanishing point”), and a direction orthogonal to the horizontal line. An image of a straight line group substantially parallel to a straight line extending in the (vertical direction) and its vanishing point (hereinafter referred to as “second vanishing point”) appear.

ここで、第1の撮像部60lの極座標系における第1消失点の位置ベクトルをp1hcとし、第2消失点の位置ベクトルをp1vcとする。そして、3次元座標系である世界座標(基準座標)での上記第1消失点の位置ベクトルをphwとし、第2消失点の位置ベクトルをpvwとする。この場合、世界座標系から第1の撮像部60lの極座標系への回転行列(第1の変換行列)をR1cwとすると以下の式が成り立つ。

Figure 2005244861
Figure 2005244861
R1cwは上述したように回転行列であって、3つの変数が含まれているが、(式6)及び(式7)を用いることで、6個の方程式が成り立つため、R1cwを算出可能である。 Here, the position vector of the first vanishing point in the polar coordinate system of the first imaging unit 60l is p1 hc, and the position vector of the second vanishing point is p1 vc . Then, the position vector of the first vanishing point in the world coordinate is a three-dimensional coordinate system (reference coordinate) and p hw, the position vector of the second vanishing point and p vw. In this case, if the rotation matrix (first transformation matrix) from the world coordinate system to the polar coordinate system of the first imaging unit 60l is R1 cw , the following equation is established.
Figure 2005244861
Figure 2005244861
R1 cw is a rotation matrix as described above, and includes three variables. By using (Equation 6) and (Equation 7), six equations can be established, so that R1 cw can be calculated. It is.

ところで、第1及び第2の半球面画像を結合することによって1つの球面画像を形成した場合、第1の半球面画像の第1消失点と第2の半球面画像の第1消失点とは一致し、第1の半球面画像の第2消失点と第2の半球面画像の第2消失点とは一致する。したがって、(式6)及び(式7)におけるphw及びpvwは、第2の半球面画像の第1消失点p2hc及び第2消失点p2vcにも変換可能である。すなわち、世界座標系から第2の撮像部60rの極座標系への変換行列(第2の変換行列)をR2cwとすると、以下の式が成り立つ。

Figure 2005244861
Figure 2005244861
(式8)及び(式9)よりR2cwが算出できる。 By the way, when one spherical image is formed by combining the first and second hemispherical images, the first vanishing point of the first hemispherical image and the first vanishing point of the second hemispherical image are. The second vanishing point of the first hemispherical image coincides with the second vanishing point of the second hemispherical image. Thus, p hw and p vw in Equation (6) and (7) can also be converted into a first vanishing point p2 hc and second vanishing p2 vc of the second hemisphere image. That is, when a transformation matrix (second transformation matrix) from the world coordinate system to the polar coordinate system of the second imaging unit 60r is R2 cw , the following equation is established.
Figure 2005244861
Figure 2005244861
R2 cw can be calculated from (Equation 8) and (Equation 9).

そして、式(6)と式(8)、又は、(式7)と(式9)より、R1cw及びR2cwに基づいて第1の撮像部60lの極座標系から第2の撮像部60rの極座標系への回転行列Rを算出することができる。 Then, from Expression (6) and Expression (8), or (Expression 7) and (Expression 9), based on R1 cw and R2 cw , the polar coordinate system of the first imaging unit 60l is used to change the second imaging unit 60r. A rotation matrix R to the polar coordinate system can be calculated.

姿勢情報取得部47は、上述した(式6)及び(式7)よりR1cwを算出し、(式8)及び(式9)よりR2cwを算出して、更に回転行列Rを算出し、パラメータ格納部41に格納する。 The posture information acquisition unit 47 calculates R1 cw from (Equation 6) and (Equation 7) described above, calculates R2 cw from (Equation 8) and (Equation 9), and further calculates a rotation matrix R, Store in the parameter storage unit 41.

上記変換行列Rを取得するために用いる第1及び第2の半球面画像は、画像中心算出部45で算出された画像中心OIl,OIr及び焦点距離算出部46で算出された焦点距離f,fに基づいて被写体像50l,50rから変換された第1及び第2の半球面画像である。この第1及び第2の半球面画像は、画像変換部42が、姿勢情報取得部47の指示により形成するようにすればよい。また、校正を実施する際には、画像変換部42が第1及び第2の半球面画像を形成した場合、それらの画像データを画像形成部43が取得せずに、姿勢情報取得部47が取得するようにしてもよい。 The first and second hemispherical images used to acquire the transformation matrix R are the image centers O Il and O Ir calculated by the image center calculation unit 45 and the focal length f calculated by the focal length calculation unit 46. l, a first and second hemisphere image converted object image 50 l, from 50r based on f r. The first and second hemispherical images may be formed by the image conversion unit 42 according to instructions from the posture information acquisition unit 47. When the calibration is performed, if the image converting unit 42 forms the first and second hemispherical images, the image forming unit 43 does not acquire the image data, and the posture information acquiring unit 47 You may make it acquire.

なお、第1消失点p1hc,p2hc及び第2消失点p1vc,p2vcを得るための平行線群としては、例えば、被写体像50l,50rに含まれている人工物(建物、道路など)の縁を利用すればよい。 As the parallel line group for obtaining the first vanishing points p1 hc and p2 hc and the second vanishing points p1 vc and p2 vc , for example, artifacts (buildings, roads, etc.) included in the subject images 50l and 50r are used. ) Can be used.

校正部48は、各魚眼レンズ10l,10rの焦点距離f,f、及び相対姿勢情報(回転行列R)を校正する。校正部48が、各魚眼レンズ10l,10rの焦点距離f,f、及び相対姿勢情報を校正する原理を説明する。 The calibration unit 48 calibrates the focal lengths f 1 and f r of the fisheye lenses 10 l and 10 r and the relative posture information (rotation matrix R). The principle by which the calibration unit 48 calibrates the focal lengths f 1 and f r of the fisheye lenses 10l and 10r and the relative posture information will be described.

図5は、撮像装置3の撮影可能な領域を示す図である。図5中の斜線部は、魚眼レンズ10l,10rの視野を示している。魚眼レンズ10l,10rは、画角wが185度であるので、それらの視野に重複領域αがある。校正部48は、第1及び第2の半球面画像に含まれる上記重複領域αに対応する領域内の点p,pを抽出する。言い換えれば、物体空間における重複領域α内の物点に対応する第1の半球面画像内の点pと、その同じ物点に対応する第2の半球面画像内の点pとを抽出する。なお、ここで用いる第1及び第2の半球面画像は、回転行列Rを取得するために用いた画像である。 FIG. 5 is a diagram illustrating a region where the imaging apparatus 3 can capture images. The shaded area in FIG. 5 indicates the field of view of the fisheye lenses 10l and 10r. Since the angle of view w of the fish-eye lenses 10l and 10r is 185 degrees, there is an overlapping region α in their field of view. Calibration unit 48, a point p l in the region corresponding to the overlapping area α included in the first and second hemispherical surface image, extracts a p r. In other words, extraction first and point p l in hemisphere image corresponding to the object point in the overlapping area α in the object space, and a point p r in the second hemisphere image corresponding to the same object point To do. The first and second hemispherical images used here are images used to acquire the rotation matrix R.

点p及び点pは、重複領域αに含まれる物点に対応する像点であって第1及び第2の半球面画像に含まれる点であるので、その画像情報(例えば、輝度)は一致する。したがって、点p及び点pおける画像の輝度をL(p)及びL(p)とすると、理論的には以下の式が成り立つ。

Figure 2005244861
実際には、撮像系パラメータの誤差により(式10)は近似的に成立する。したがって、次の目的関数F(the objective function)が最小になるような焦点距離f,f及び回転行列Rを求めることで焦点距離f,f及び相対姿勢情報を校正することが可能である。言い換えれば、重複領域αに対応する第1及び第2の半球面画像の領域の画像の相関に基づいて焦点距離算出部46で算出された焦点距離f,f及び回転行列Rを校正することが可能である。なお、ここでは、画像中心OIl,OIrは、上述したように2本の直線の交点として求められているため、より正確な値になっているとしている。
Figure 2005244861
Nは、物体空間における重複領域αに対応する第1及び第2の半球面画像内の領域に含まれる画素の数である。(式11)において、右辺の和(式中のΣ)は、重複領域αに対応する第1の半球面画像(又は第2の半球面画像)内の領域に含まれる複数(N個)のp(又はp)に対する和である。またLlav及びLravは、第1及び第2の半球面画像において、重複領域αに対応する領域に含まれる複数の画素の輝度の平均値である。(式11)を適用するため、校正部48は、Llav及びLravを算出する機能も有している。 Since the points p 1 and p r are image points corresponding to object points included in the overlapping region α and included in the first and second hemispherical images, the image information (for example, luminance) Match. Therefore, if the luminances of the images at the points p 1 and p r are L 1 (p 1 ) and L r (p r ), the following equation holds theoretically.
Figure 2005244861
Actually, (Equation 10) is approximately established by the error of the imaging system parameter. Therefore, it is possible to calibrate the focal lengths f l and fr and the relative posture information by obtaining the focal lengths f l and fr and the rotation matrix R that minimize the next objective function F (the objective function). It is. In other words, the focal lengths f l and fr and the rotation matrix R calculated by the focal length calculation unit 46 are calibrated based on the correlation between the images of the first and second hemispherical image regions corresponding to the overlapping region α. It is possible. Here, the image centers O Il and O Ir are obtained as intersections of two straight lines as described above, and are therefore more accurate values.
Figure 2005244861
N is the number of pixels included in the regions in the first and second hemispherical images corresponding to the overlapping region α in the object space. In (Expression 11), the sum (Σ in the expression) of the right side is a plurality of (N) included in the region in the first hemispherical image (or the second hemispherical image) corresponding to the overlapping region α. It is the sum for p l (or p r ). L lav and L rav are average values of luminance of a plurality of pixels included in the region corresponding to the overlapping region α in the first and second hemispherical images. In order to apply (Formula 11), the calibration unit 48 also has a function of calculating L lav and L rav .

次に、上記撮像装置3により全天周球面画像を形成する方法について説明する。全天周球面画像を形成するために、まず、上記撮像装置3の撮像系パラメータの校正方法について説明する。   Next, a method for forming an all-round spherical image by the imaging device 3 will be described. In order to form an all-round spherical image, first, a method for calibrating the imaging system parameters of the imaging device 3 will be described.

図6は、撮像系パラメータの校正方法のフローチャートである。なお、図6に示す消失点算出工程S10の実施前にパラメータ格納部41には、撮像系パラメータは格納されていないものとする。   FIG. 6 is a flowchart of the imaging system parameter calibration method. Note that it is assumed that the imaging system parameters are not stored in the parameter storage unit 41 before the vanishing point calculation step S10 illustrated in FIG. 6 is performed.

(消失点算出工程S10)
図7〜図9は一対の消失点の算出工程を示す図である。まず、図7に示す黒領域と白領域とが交互に並んでいる格子パターン70を撮像装置3の第1の撮像部60lで撮像する。格子パターン70において、黒領域と白領域との境界は互いに平行な直線であるため、複数の境界線71〜71が、一定の方向に延びる平行線群(第1の平行線群)71に相当する。図8は、格子パターン70の被写体像72(50l)の模式図である。図8に示すように魚眼レンズ10lで取得された被写体像は、円形(球画像)になっている。
(Vanishing point calculation step S10)
7-9 is a figure which shows the calculation process of a pair of vanishing point. First, the grid pattern 70 in which the black areas and the white areas shown in FIG. In the lattice pattern 70, since the boundary between the black region and the white region is a straight line parallel to each other, a plurality of boundary lines 71 1 to 71 6 are parallel line groups (first parallel line group) 71 extending in a certain direction. It corresponds to. FIG. 8 is a schematic diagram of the subject image 72 (50 l) of the lattice pattern 70. As shown in FIG. 8, the subject image acquired by the fisheye lens 101 is circular (spherical image).

撮像素子30(図2参照)で被写体像72が取得されると、消失点算出部44(図3参照)は、図8に示す被写体像72の曲線に円錐曲線をフィッティングする。これにより、消失点算出部44は、図9(a)に示す複数の円錐曲線関数f(x,y)(例えば、f、fなど)を算出する。続いて、その円錐曲線関数f(x,y)を利用し、消失点算出部44の説明の際に記載した原理に基づいて消失点対73l,74lを算出する。 When the subject image 72 is acquired by the image sensor 30 (see FIG. 2), the vanishing point calculation unit 44 (see FIG. 3) fits a conic curve to the curve of the subject image 72 shown in FIG. Accordingly, the vanishing point calculation unit 44 calculates a plurality of conic curve functions f j (x, y) (for example, f 1 , f 2, etc.) shown in FIG. Subsequently, vanishing point pairs 73l and 74l are calculated based on the principle described in the description of the vanishing point calculation unit 44 using the conic curve function f j (x, y).

次に、同じ格子パターン70を、例えば、略90度回転させて再度第1の撮像部60lで撮像する。消失点算出部44は、消失点対73l,74lを算出した場合と同様にして、図9(b)に示す消失点対75l,76lを算出する。この場合、格子パターン70が回転しているため、第1の平行線群を構成する直線(図7における境界線71〜71)が延びる方向と異なる平行線群(第2の平行線群)に対応する消失点対75l,76lが算出される。以上の工程を、第2の撮像部60rについても同様に実施して、消失点対73l,74lに対応する消失点対73r,74rを算出し、消失点対75l,76lに対応する消失点対75r,76rを算出する。 Next, the same lattice pattern 70 is rotated by, for example, approximately 90 degrees and imaged again by the first imaging unit 60l. The vanishing point calculation unit 44 calculates the vanishing point pair 75l and 76l shown in FIG. 9B in the same manner as when the vanishing point pair 73l and 74l are calculated. In this case, since the lattice pattern 70 is rotating, the parallel line group (second parallel line group) different from the direction in which the straight lines (boundary lines 71 1 to 71 6 in FIG. 7) extending in the first parallel line group extend. The vanishing point pair 75l and 76l corresponding to () is calculated. The above process is similarly performed on the second imaging unit 60r to calculate the vanishing point pair 73r and 74r corresponding to the vanishing point pair 73l and 74l, and the vanishing point pair corresponding to the vanishing point pair 75l and 76l. 75r and 76r are calculated.

(画像中心算出工程S11)
図10及び図11は、画像中心を算出する工程を示す図である。画像中心算出部45は、消失点算出部44から消失点73l,74l,75l,76lの位置座標を取得する。
(Image Center Calculation Step S11)
10 and 11 are diagrams illustrating a process of calculating the image center. The image center calculation unit 45 acquires the position coordinates of the vanishing points 73l, 74l, 75l, and 76l from the vanishing point calculation unit 44.

画像中心算出部45は、図10(a),(b)それぞれに示すように、消失点対73l,74lを結ぶ直線77と消失点対75l,76lを結ぶ直線78とを算出する。そして、直線77と直線78との交点を魚眼レンズ10lの像面の画像中心OIlとして特定する。図11は、算出された画像中心OIlを図8の被写体像72に重ねて示した図である。 As shown in FIGS. 10A and 10B, the image center calculation unit 45 calculates a straight line 77 connecting the vanishing point pairs 73l and 74l and a straight line 78 connecting the vanishing point pairs 75l and 76l. Then, the intersection of the straight line 77 and the straight line 78 is specified as the image center O Il of the image plane of the fisheye lens 10l. FIG. 11 is a diagram showing the calculated image center O Il superimposed on the subject image 72 of FIG.

上記では、第1の撮像部60lについて説明しているが、画像中心算出部45は、魚眼レンズ10rの像面に対しても画像中心OIrの位置座標を算出する。画像中心算出部45は、取得した画像中心OIl,OIrの位置座標をパラメータ格納部41に格納する。 Although the first imaging unit 60l has been described above, the image center calculation unit 45 calculates the position coordinates of the image center O Ir with respect to the image plane of the fisheye lens 10r. The image center calculation unit 45 stores the acquired position coordinates of the image centers O Il and O Ir in the parameter storage unit 41.

(焦点距離算出工程S12)
また、焦点距離算出部46は、消失点算出部44から消失点対73l,74l(又は消失点対75l,76l)及び消失点対73r,74r(又は消失点対75r,76r)の位置座標を取得する。焦点距離算出部46は、消失点対73l,74l(又は消失点対75l,76l)間の距離に対して(式5)を適用して魚眼レンズ10lの焦点距離fを算出する。
(Focal distance calculation step S12)
Further, the focal length calculation unit 46 obtains the position coordinates of the vanishing point pair 73l, 74l (or vanishing point pair 75l, 76l) and the vanishing point pair 73r, 74r (or the vanishing point pair 75r, 76r) from the vanishing point calculation unit 44. get. Focal length calculating unit 46, vanishing point pairs 73l, 74l (or vanishing point pairs 75l, 76l) to calculate the focal length f l fisheye lens and applied to the distance between the (Equation 5) 10l.

上記では、第1の撮像部60lについて説明しているが、焦点距離算出部46は、魚眼レンズ10rの焦点距離fも消失点対73r,74r(又は、消失点対75r,76r)間の距離を用いて(式5)から算出する。焦点距離算出部46は、算出した焦点距離f,fをパラメータ格納部41に格納する。 In the above has described the first imaging unit 60l, a focal length calculating unit 46, a fisheye lens focal length f r also vanishing point pairs 10r 73r, 74r (or, vanishing point pairs 75 r, 76r) distance between To calculate from (Equation 5). The focal length calculation unit 46 stores the calculated focal lengths f 1 and f r in the parameter storage unit 41.

本実施形態では、図6に示すように、画像中心算出工程S11の次に焦点距離算出工程S12を実施するようにしているが、これらの順番は特に限定されず、焦点距離算出工程S12を先に実施しても良い。   In the present embodiment, as shown in FIG. 6, the focal length calculation step S12 is performed after the image center calculation step S11. However, the order is not particularly limited, and the focal length calculation step S12 is performed first. May be implemented.

(画像変換工程S13)
次に、格子パターン70を除いて撮像装置3の周囲の風景(被写体)を撮像する。この場合、画像変換部42は、撮像素子30によって撮像された各被写体像50l,50rを、画像中心算出工程S11及び焦点距離算出工程S12で算出された画像中心OIl,OIr及び焦点距離f,fに基づいて、第1及び第2の半球面画像に変換する。なお、この画像変換工程S13は、姿勢情報取得部47から画像変換部42への指示に基づいて行うようにしても良い。
(Image conversion step S13)
Next, the scenery (subject) around the imaging device 3 is imaged except for the lattice pattern 70. In this case, the image conversion unit 42 converts the subject images 50l and 50r captured by the image sensor 30 into the image centers O Il and O Ir and the focal length f calculated in the image center calculation step S11 and the focal length calculation step S12. l, based on the f r, is converted into the first and second hemisphere image. Note that this image conversion step S13 may be performed based on an instruction from the posture information acquisition unit 47 to the image conversion unit 42.

(姿勢情報取得工程S14)
次に、姿勢情報取得部47は、画像変換工程S13において得られた第1の半球面画像から上述した第1消失点p1hc及び第2消失点p1vcを抽出する。また、姿勢情報取得部47は、得られた第2の半球面画像から第1消失点p2hc及び第2消失点p2vcを抽出する。上記第1消失点p1hc,p2hcとは、上述したように、物体空間における水平線に略平行な直線群の、第1及び第2の半球面画像での消失点である。また、第2消失点p1vc,p2vcとは、物体空間における水平線に直交する方向(鉛直方向)に延びる直線に略平行な直線群の、第1及び第2の半球面画像での消失点である。
(Attitude information acquisition process S14)
Next, the posture information acquisition unit 47 extracts the first vanishing point p1 hc and the second vanishing point p1 vc described above from the first hemispherical image obtained in the image conversion step S13. In addition, the posture information acquisition unit 47 extracts the first vanishing point p2 hc and the second vanishing point p2 vc from the obtained second hemispherical image. As described above, the first vanishing points p1 hc and p2 hc are vanishing points in the first and second hemispherical images of a group of straight lines substantially parallel to the horizontal line in the object space. The second vanishing points p1 vc and p2 vc are vanishing points in the first and second hemispherical images of a straight line group substantially parallel to a straight line extending in a direction (vertical direction) perpendicular to the horizontal line in the object space. It is.

次に、姿勢情報取得部47は、(式6)及び(式7)を用いて世界座標系から第1の撮像部60lの極座標系への回転行列R1cwを算出する(第1の行列算出工程)。また、姿勢情報取得部47は、(式8)及び(式9)を用いて世界座標系から第2の撮像部60rの極座標系への回転行列R2cwを算出する(第2の行列算出工程)。更に、姿勢情報取得部47は、回転行列R1cw,R2cwを用いて第1の撮像部60lの極座標系から第2の撮像部60rの極座標系への変換行列Rを算出する(第3の行列算出工程)。姿勢情報取得部47は、その変換行列Rをパラメータ格納部41に格納する。 Next, the posture information acquisition unit 47 calculates the rotation matrix R1 cw from the world coordinate system to the polar coordinate system of the first imaging unit 60l using (Expression 6) and (Expression 7) (first matrix calculation). Process). Further, the posture information acquisition unit 47 calculates the rotation matrix R2 cw from the world coordinate system to the polar coordinate system of the second imaging unit 60r using (Expression 8) and (Expression 9) (second matrix calculation step) ). Further, the posture information acquisition unit 47 calculates a transformation matrix R from the polar coordinate system of the first imaging unit 60l to the polar coordinate system of the second imaging unit 60r using the rotation matrices R1 cw and R2 cw (third Matrix calculation step). The posture information acquisition unit 47 stores the transformation matrix R in the parameter storage unit 41.

(校正工程S15)
姿勢情報取得工程S14で、相対姿勢情報が取得されると、校正部48は、画像変換工程S11で変換された第1及び第2の半球面画像において、魚眼レンズ10l,10rの視野の重複領域α(図5参照)に対応する領域内の点pl,pを抽出する。そして、点p,pにおける画像の相関に基づいて、より具体的には(式11)に基づいて、焦点距離算出工程S12で算出された焦点距離f,f及び姿勢情報取得工程S14で取得された相対姿勢情報(すなわち、パラメータ格納部41に格納されている焦点距離f,f及び相対姿勢情報)を校正する。
(Calibration step S15)
When the relative posture information is acquired in the posture information acquisition step S14, the calibration unit 48 uses the overlapping region α of the visual field of the fisheye lenses 10l and 10r in the first and second hemispherical images converted in the image conversion step S11. point p l in the corresponding region (see FIG. 5), extracts a p r. Then, the point p l, based on the correlation of the image at p r, more specifically on the basis of (Equation 11), the focal length calculated second process S12 focal length f l calculated in, f r and orientation obtaining step The relative posture information acquired in S14 (that is, the focal lengths f 1 and fr and the relative posture information stored in the parameter storage unit 41) is calibrated.

以上の工程により、撮像装置3の撮像系パラメータが校正される。この撮像系パラメータが上記方法によって1度校正されると、それを用いて球面画像を形成することが可能である。   Through the above steps, the imaging system parameters of the imaging device 3 are calibrated. Once this imaging system parameter is calibrated once by the above method, it can be used to form a spherical image.

次に、球面画像形成方法について説明する。図12は、球面画像を形成するためのフローチャートである。   Next, a spherical image forming method will be described. FIG. 12 is a flowchart for forming a spherical image.

(撮像工程S20)
まず、撮像装置3を撮影すべき風景を撮影可能な位置に設置し、第1及び第2の撮像部60l,60rで撮像装置3の周囲の風景を撮影する。
(Imaging process S20)
First, the image capturing apparatus 3 is installed at a position where a landscape to be imaged can be captured, and the first and second image capturing units 60l and 60r capture the scenery around the image capturing apparatus 3.

(画像変換工程S21)
撮像素子30が一対の被写体像50l,50rを取得すると、撮像素子30はそれらを電気信号に変換して画像変換部42に入力する。画像変換部42は、一対の被写体像50l,50rを第1及び第2の半球面画像に変換する。この際、画像変換部42は、上記校正方法により校正されパラメータ格納部41に格納されている画像中心OIl,OIr及び焦点距離f,fに基づいて第1及び第2の半球面画像を形成する。
(Image conversion step S21)
When the image sensor 30 acquires a pair of subject images 50l and 50r, the image sensor 30 converts them into electric signals and inputs them to the image converter 42. The image conversion unit 42 converts the pair of subject images 50l and 50r into first and second hemispherical images. At this time, the image converter 42, image center O Il stored calibrated in the parameter storage unit 41 by the above calibration method, O Ir and focal length f l, the first and second hemisphere on the basis of f r Form an image.

(画像形成工程S22)
次に、画像形成部43は、画像変換部42で形成された第1及び第2の半球面画像を、パラメータ格納部41に格納されている画像中心OIl,OIr及び相対姿勢情報(すなわち、回転行列R)を用いて結合して、全天周の球面画像を形成する。
(Image forming step S22)
Next, the image forming unit 43 converts the first and second hemispherical images formed by the image converting unit 42 into the image centers O Il and O Ir stored in the parameter storage unit 41 and relative posture information (that is, , Rotation matrix R) to form a spherical image of the whole sky.

上記校正方法の説明では、上述したように、消失点算出工程S10(図6参照)の実施前にはパラメータ格納部41に撮像系パラメータが格納されていないとしたが、例えば、撮像装置3を設計した場合に得られる設計値が格納されていてもよい。この場合は、上記工程ごとに格納されているパラメータが校正される。   In the description of the calibration method, as described above, the imaging system parameters are not stored in the parameter storage unit 41 before the vanishing point calculation step S10 (see FIG. 6) is performed. A design value obtained when designing may be stored. In this case, the parameters stored for each process are calibrated.

次に、実施例を参照して上述した本実施形態の撮像系パラメータの校正方法が奏する効果についてより具体的に説明する。図13は、上記校正方法を実際に適用したカメラシステムを示す図である。図13のカメラシステムは図2に示す撮像装置3のモデルである。図13のカメラシステムは、画角wが185度の魚眼レンズを有するカメラを互いに反対向きに配置したものである。魚眼レンズは、FCON−02(オリンパス株式会社製)を用いた。   Next, the effects of the imaging system parameter calibration method of the present embodiment described above with reference to the examples will be described more specifically. FIG. 13 is a diagram showing a camera system to which the calibration method is actually applied. The camera system of FIG. 13 is a model of the imaging device 3 shown in FIG. In the camera system of FIG. 13, cameras having fisheye lenses with an angle of view w of 185 degrees are arranged in opposite directions. As the fisheye lens, FCON-02 (manufactured by Olympus Corporation) was used.

図14は、図13に示すカメラシステムによる撮影方向を示す模式図である。図14に示す円の中心Oに上記カメラシステムが配置されている。この場合、一対のカメラは、互いに反対方向(図中のA方向及びB方向)を撮影するようになっている。 FIG. 14 is a schematic diagram showing a shooting direction by the camera system shown in FIG. The camera system is arranged at the center O c of the circle shown in FIG. 14. In this case, the pair of cameras captures the opposite directions (A direction and B direction in the drawing).

図15は、上記カメラシステムで撮影した被写体像の図である。図中の一対の画像のうち、例えば、左側の図が図14中のA方向の画像であり、右側の図がB方向の画像である。図15に示されている一対の画像は一度の撮影で得られている。   FIG. 15 is a diagram of a subject image photographed by the camera system. Of the pair of images in the figure, for example, the left figure is an image in the A direction in FIG. 14, and the right figure is an image in the B direction. The pair of images shown in FIG. 15 are obtained by one shooting.

図16は、比較のために撮像系パラメータを構成せずに形成した球面画像の一部の図である。図16(a)は、形成された球面画像のうち、図14のC方向の画像であり、図16(b)は、図14のD方向の画像である。また、図中右側の拡大図は、球面画像を構成している第1及び第2の半球面画像の結合領域を拡大している図である。図16に示すように結合領域で画像にずれが生じていることがわかる。   FIG. 16 is a diagram of a part of a spherical image formed without configuring imaging system parameters for comparison. FIG. 16A is an image in the C direction in FIG. 14 among the formed spherical images, and FIG. 16B is an image in the D direction in FIG. Further, the enlarged view on the right side in the figure is an enlarged view of the combined region of the first and second hemispherical images constituting the spherical image. As shown in FIG. 16, it can be seen that there is a shift in the image in the combined area.

図17は、上述した校正方法を実施した後に形成した球面画像の一部の図である。図17(a),(b)は、図16(a),(b)と同様に、球面画像における図14のC方向及びD方向の画像である。上記校正方法を実施した場合には、図17に示すように結合領域における画像のずれが低減されている。   FIG. 17 is a partial view of a spherical image formed after performing the above-described calibration method. FIGS. 17A and 17B are images in the C direction and D direction of FIG. 14 in the spherical image, similarly to FIGS. 16A and 16B. When the calibration method is performed, the image shift in the combined area is reduced as shown in FIG.

上述した本実施形態に係る撮像装置3では、画角wが185度の魚眼レンズ10l,10rが、互いに反対側の被写体を撮影するように配置されている。したがって、魚眼レンズ10lによって、撮像装置3の周囲360度のうちほぼ半分の領域に位置する被写体からの外光が取り込まれ、魚眼レンズ10rから残りのほぼ半分の領域に位置する被写体からの外光が取り込まれる。そのため、第1及び第2の撮像部60l,60rで共に撮像される被写体像50l,50rは、2つ合わせて撮像装置3の周囲360度にわたる画像情報を有している。したがって、それらの各被写体像50l,50rを半球面画像に変換して結合することにより同一時刻における全天周の球面画像を得ることができる。撮像装置3では、この球面画像の形成を、画像形成手段40によって実施している。   In the imaging apparatus 3 according to the present embodiment described above, the fisheye lenses 10l and 10r having an angle of view w of 185 degrees are arranged so as to photograph subjects on opposite sides. Therefore, the fish-eye lens 10l captures external light from the subject located in approximately half of the 360 degrees around the imaging device 3, and captures external light from the fish-eye lens 10r from the subject located in the remaining almost half region. It is. Therefore, the subject images 50l and 50r imaged together by the first and second imaging units 60l and 60r have image information covering 360 degrees around the imaging device 3 together. Therefore, a spherical image of the whole sky at the same time can be obtained by converting each of the subject images 50l and 50r into a hemispherical image and combining them. In the imaging device 3, this spherical image is formed by the image forming means 40.

また、被写体像50l,50rから球面画像を形成する工程においては、撮像装置3の撮像系パラメータが用いられるが、上述した本実施形態の撮像系パラメータの校正方法により撮像系パラメータを校正できるため、球面画像を形成したときに、球面画像中で画像のずれが低減されている。   In the process of forming a spherical image from the subject images 50l and 50r, the imaging system parameters of the imaging device 3 are used. However, since the imaging system parameters can be calibrated by the above-described imaging system parameter calibration method of the present embodiment, When a spherical image is formed, image shift is reduced in the spherical image.

特に、本実施形態の校正方法では、画角wが185度の魚眼レンズ10l,10rを用いていることから被写体像50l,50r(第1及び第2の半球面像中)それぞれに現れる消失点を利用して校正している。より具体的には、2組の消失点対を利用して画像中心OIl(又は画像中心OIr)を算出しているため、画像中心OIl,OIrがより正確になっている。また、1組の消失点対を利用して焦点距離f(又は焦点距離f)を算出した後に、相対姿勢情報(回転行列R)を算出している。そして、それらの焦点距離f,f及び回転行列Rを、魚眼レンズ10,10の視野の重複領域αを利用して更に校正している。そのため、撮像系パラメータがより正確な値となっており、図17に示すように結合領域において画像のずれが少ない球面画像を形成することができる。 In particular, in the calibration method of the present embodiment, since the fish-eye lenses 10l and 10r having an angle of view w of 185 degrees are used, vanishing points appearing in the subject images 50l and 50r (in the first and second hemispherical images) are detected. It is used and proofread. More specifically, since the image center O Il (or image center O Ir ) is calculated using two sets of vanishing point pairs, the image centers O Il and O Ir are more accurate. Further, after calculating the focal length f 1 (or the focal length f r ) using a pair of vanishing point pairs, the relative posture information (rotation matrix R) is calculated. Then, the focal lengths f l and fr and the rotation matrix R are further calibrated using the overlapping region α of the visual field of the fish-eye lenses 10 l and 10 r . Therefore, the imaging system parameter has a more accurate value, and as shown in FIG. 17, it is possible to form a spherical image with little image shift in the combined region.

以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されないことは言うまでもない。例えば、撮像装置3は、画像形成手段40を備えていなくてもよい。この場合は、撮像素子からの電気信号を撮像装置3の外部に位置するコンピュータなどに転送して画像形成手段40が実施する処理を実施して球面画像を形成すればよい。   As mentioned above, although preferred embodiment of this invention was described, it cannot be overemphasized that this invention is not limited to the said embodiment. For example, the imaging device 3 may not include the image forming unit 40. In this case, a spherical image may be formed by transferring the electrical signal from the imaging device to a computer or the like located outside the imaging device 3 and performing the processing performed by the image forming means 40.

また、光路変更素子は、直角ミラーとしているが、魚眼レンズ10l,10rからの光を撮像素子側に反射できればよい。例えば、光路変更素子として、図18に示すような反射鏡90を用いても良い。反射鏡90は、2つの反射面91l,91rのなす角度Qが60度になっているものである。この場合は、撮像素子30の受光面31を小さくすることが可能である。   Further, although the optical path changing element is a right-angle mirror, it is sufficient that the light from the fisheye lenses 10l and 10r can be reflected to the image sensor side. For example, a reflecting mirror 90 as shown in FIG. 18 may be used as the optical path changing element. In the reflecting mirror 90, the angle Q formed by the two reflecting surfaces 91l and 91r is 60 degrees. In this case, the light receiving surface 31 of the image sensor 30 can be made small.

更に、消失点算出工程S10では、図7に示すような格子パターン70を校正用パターンとして用いているが、例えば、図19に示すような校正用パターン80を用いても良い。校正用パターン80は、互いに平行な複数の直線81〜81と、それらに直交する互いに平行な複数の直線82〜82から構成されている。なお、直線81〜81と直線82〜82は必ずしも直交していなくても斜交していればよい。また、格子パターン70のような校正用パターンを用いずに、第1消失点p1hc(p2hc)及び第2消失点p1vc(p2vc)を構成する平行線群を利用しても良い。 Furthermore, in the vanishing point calculating step S10, the lattice pattern 70 as shown in FIG. 7 is used as the calibration pattern, but for example, a calibration pattern 80 as shown in FIG. 19 may be used. The calibration pattern 80 includes a plurality of straight lines 81 1 to 81 6 that are parallel to each other and a plurality of straight lines 82 1 to 82 6 that are orthogonal to each other. Incidentally, the straight line 81 1 to 81 6 and the straight line 82 1 to 82 6 need only obliquely intersects also not necessarily be orthogonal. Further, a parallel line group constituting the first vanishing point p1 hc (p2 hc ) and the second vanishing point p1 vc (p2 vc ) may be used without using a calibration pattern such as the lattice pattern 70.

更にまた、魚眼レンズ10l,10rの画角wは185度としているが、180度以上ならばよい。更に、魚眼レンズ10l,10rの射影方式は等距離射影方式としているが、これに限られない。また、画像形成手段40は、撮像系パラメータ格納部41を備えているが、特に有していなくても良く、いわゆるコンピュータなどが有しているメモリなどを利用すればよい。更に、撮像手段は、1つの撮像素子30としているが、例えば、2つの撮像素子を用いてもよい。この場合には、各魚眼レンズ10l,10rの光路変更素子を介した結像面に各撮像素子の受光面が位置するように配置すればよい。   Furthermore, the angle of view w of the fisheye lenses 10l and 10r is 185 degrees, but may be 180 degrees or more. Furthermore, although the projection system of the fish-eye lenses 10l and 10r is an equidistant projection system, it is not limited to this. Further, the image forming unit 40 includes the imaging system parameter storage unit 41. However, the image forming unit 40 may not include the imaging system parameter storage unit 41, and may use a memory included in a so-called computer. Furthermore, although the imaging means is one imaging element 30, for example, two imaging elements may be used. In this case, the fish-eye lenses 10l and 10r may be arranged so that the light-receiving surfaces of the imaging elements are positioned on the image formation planes through the optical path changing elements.

本発明による撮像装置及び撮像系パラメータの校正方法は、監視用センサーや自走ロボットの視覚センサーなどに用いることができる。   The imaging apparatus and imaging system parameter calibration method according to the present invention can be used for monitoring sensors, visual sensors of self-propelled robots, and the like.

球面画像を説明する図であるIt is a figure explaining a spherical image 本実施形態の撮像装置3の構成を示す模式図であるIt is a schematic diagram which shows the structure of the imaging device 3 of this embodiment. 画像形成手段40のブロック図である2 is a block diagram of an image forming unit 40. FIG. 被写体像を半球面画像に変換する原理を説明するための図である。It is a figure for demonstrating the principle which converts a to-be-photographed image into a hemispherical image. 撮像装置3の撮影可能な領域を示す模式図であるFIG. 3 is a schematic diagram illustrating a region where an image can be captured by the imaging apparatus 3; 撮像系パラメータの校正方法のフローチャートである。It is a flowchart of the calibration method of an imaging system parameter. 一対の消失点の算出工程を示す図である。It is a figure which shows the calculation process of a pair of vanishing point. 一対の消失点の算出工程を示す図である。It is a figure which shows the calculation process of a pair of vanishing point. 一対の消失点の算出工程を示す図である。It is a figure which shows the calculation process of a pair of vanishing point. 画像中心を算出する工程を示す図である。It is a figure which shows the process of calculating an image center. 画像中心を算出する工程を示す図である。It is a figure which shows the process of calculating an image center. 球面画像を形成するためのフローチャートである。It is a flowchart for forming a spherical image. 本実施形態の撮像系パラメータ校正方法を適用するカメラシステムの写真の図である。It is a figure of the photograph of the camera system to which the imaging system parameter calibration method of this embodiment is applied. 図13のカメラシステムの撮影方向を示す図である。It is a figure which shows the imaging | photography direction of the camera system of FIG. 図13に示すカメラシステムで一度に撮像した被写体像の図であるIt is the figure of the to-be-photographed object image imaged at once with the camera system shown in FIG. 比較のための球面画像の一部の図である。It is a figure of a part of spherical image for a comparison. 本実施形態に係る撮像系パラメータ校正方法を適用して形成された球面画像の一部の図である。It is a figure of a part of spherical image formed by applying the imaging system parameter calibration method concerning this embodiment. 光路変更素子の他の形態を示す図である。It is a figure which shows the other form of an optical path changing element. 消失点算出工程で用いるテストパターンの他の例を示す図である。It is a figure which shows the other example of the test pattern used at a vanishing point calculation process.

符号の説明Explanation of symbols

3…撮像装置、10l,10r…魚眼レンズ、11l,11r…魚眼レンズの面、20…直角ミラー(光路変更素子)、30…撮像素子(撮像手段)40…画像形成手段、41…パラメータ格納部、42…画像変換部、43…画像形成部、44…消失点算出部、45…画像中心算出部、46…焦点距離算出部、47…姿勢情報取得部、48…校正部、60l…第1の撮像部、60r…第2の撮像部。   DESCRIPTION OF SYMBOLS 3 ... Imaging device, 10l, 10r ... Fisheye lens, 11l, 11r ... Fisheye lens surface, 20 ... Right angle mirror (optical path changing element), 30 ... Imaging element (imaging means) 40 ... Image forming means, 41 ... Parameter storage part, 42 Image conversion unit 43 Image formation unit 44 Vanishing point calculation unit 45 Image center calculation unit 46 Focal length calculation unit 47 Posture information acquisition unit 48 Calibration unit 60l First imaging Part, 60r ... 2nd imaging part.

Claims (8)

外光が入射する面が互いに反対側に位置するように配置されており、画角が180度以上の一対の魚眼レンズと、
前記一対の魚眼レンズの間に配置され、各魚眼レンズを通った外光の光路を変更して、それらの外光を同じ側に伝搬させる光路変更素子と、
前記光路変更素子によって光路が変更された外光に基づいて形成される各被写体像を共に撮像できる撮像手段と
を備え、
前記一対の魚眼レンズの一方と前記光路変更素子と前記撮像手段とを含んで第1の撮像部が構成されており、前記一対の魚眼レンズの他方と前記光路変更素子と前記撮像手段とを含んで第2の撮像部が構成されていることを特徴とする撮像装置。
A pair of fish-eye lenses that are arranged such that surfaces on which external light is incident are located on opposite sides of each other, and an angle of view of 180 degrees or more;
An optical path changing element that is disposed between the pair of fisheye lenses, changes the optical path of the external light passing through each fisheye lens, and propagates the external light to the same side;
An imaging means capable of capturing both subject images formed based on external light whose optical path has been changed by the optical path changing element;
The first imaging unit is configured to include one of the pair of fisheye lenses, the optical path changing element, and the imaging means, and includes the other of the pair of fisheye lenses, the optical path changing element, and the imaging means. An image pickup apparatus comprising two image pickup units.
前記撮像手段は、1つの撮像素子から構成されていることを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging unit includes a single imaging device. 前記光路変更素子は、各魚眼レンズ側に反射面を有する反射鏡であることを特徴とする請求項1又は請求項2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the optical path changing element is a reflecting mirror having a reflecting surface on each fisheye lens side. 前記撮像手段によって撮像された各被写体像から、系外の全天周にわたる画像情報を球体の表面に有する球面画像を形成する画像形成手段を備えることを特徴とする請求項1〜請求項3の何れか1項に記載の撮像装置。   The image forming means for forming a spherical image having image information on the entire surface of the sphere outside the system from each subject image picked up by the image pickup means. The imaging device according to any one of the above. 前記画像形成手段は、
前記撮像手段によって撮像された各被写体像を、前記第1及び第2の撮像部が有する魚眼レンズの像面の画像中心及びその魚眼レンズの焦点距離に基づいて、前記被写体像の画像情報を半球体の表面に有する半球面画像に変換する画像変換部と、
前記画像変換部において得られた各半球面画像を、前記第1及び第2の撮像部の相対姿勢情報及び前記各魚眼レンズの像面の画像中心に基づいて結合することによって前記球面画像を形成する画像形成部と
を備えることを特徴とする請求項4に記載の撮像装置。
The image forming unit includes:
Based on the image center of the image plane of the fisheye lens included in the first and second imaging units and the focal length of the fisheye lens, each subject image captured by the imaging unit is converted into hemispherical image information. An image conversion unit for converting to a hemispherical image on the surface;
The spherical images are formed by combining the hemispherical images obtained in the image converting unit based on the relative posture information of the first and second imaging units and the image center of the image plane of each fisheye lens. The imaging apparatus according to claim 4, further comprising an image forming unit.
前記画像形成手段は、
前記撮像手段で撮像される各被写体像について、異なる方向に延びる2組の平行線群の、被写体像における2組の消失点対を算出する消失点算出部と、
前記第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの像面の画像中心を、前記消失点算出部において算出された2組の消失点対に基づいて算出する画像中心算出部と、
前記第1及び第2の撮像部が有する魚眼レンズに対して、その魚眼レンズの焦点距離を、前記消失点算出部において算出された2組の消失点対の少なくとも一方の消失点対間の距離に基づいて算出する焦点距離算出部と、
前記画像中心算出部及び前記焦点距離算出部で算出された画像中心及び焦点距離に基づいて被写体像から変換される半球面画像に含まれており物体空間における水平線に略平行な直線群の第1消失点及び前記直線群に略直交する直線群の第2消失点に基づいて、前記第1及び第2の撮像部の相対姿勢情報を取得する姿勢情報取得部と、
前記相対姿勢情報を取得するための各半球面画像に含まれており前記各魚眼レンズの視野の重複領域に対応する領域における画像の相関に基づいて、前記焦点距離算出部で算出された焦点距離及び前記姿勢情報取得部で取得された相対姿勢情報を校正する校正部と
を備え、
前記画像変換部は、前記第1及び第2の撮像部で撮像された被写体像に対して、前記画像中心算出部によって算出された画像中心及び前記校正部によって校正された焦点距離に基づいて前記被写体像を半球面画像に変換し、
前記画像形成部は、前記画像変換部で得られた各半球面画像を、前記画像中心算出部によって算出された画像中心及び前記校正部で校正された相対姿勢情報に基づいて結合して前記球面画像を形成することを特徴とする請求項5に記載の撮像装置。
The image forming unit includes:
For each subject image captured by the imaging means, a vanishing point calculation unit that calculates two pairs of vanishing points in the subject image of two sets of parallel lines extending in different directions;
An image center calculation unit that calculates an image center of the image plane of the fisheye lens based on the two pairs of vanishing points calculated by the vanishing point calculation unit with respect to the fisheye lens included in the first and second imaging units; ,
Based on the distance between at least one vanishing point pair of the two vanishing point pairs calculated by the vanishing point calculation unit, the focal length of the fisheye lens with respect to the fisheye lens of the first and second imaging units is determined. A focal length calculation unit for calculating
A first group of straight lines included in the hemispherical image converted from the subject image based on the image center and focal length calculated by the image center calculating unit and the focal length calculating unit and substantially parallel to a horizontal line in the object space. A posture information acquisition unit that acquires relative posture information of the first and second imaging units based on a vanishing point and a second vanishing point of a straight line group that is substantially orthogonal to the straight line group;
The focal length calculated by the focal length calculation unit based on the correlation of the images in the region corresponding to the overlapping region of the visual field of each fisheye lens included in each hemispherical image for acquiring the relative posture information A calibration unit that calibrates the relative posture information acquired by the posture information acquisition unit,
The image conversion unit is configured based on the image center calculated by the image center calculation unit and the focal length calibrated by the calibration unit with respect to the subject image captured by the first and second imaging units. Convert the subject image into a hemispherical image,
The image forming unit combines the hemispherical images obtained by the image conversion unit based on the image center calculated by the image center calculation unit and the relative posture information calibrated by the calibration unit, and The imaging apparatus according to claim 5, wherein an image is formed.
外光が入射する面が互いに反対側に位置するように配置されており、画角が180度以上の一対の魚眼レンズと、前記一対の魚眼レンズの間に配置され、各魚眼レンズを通った外光の光路を変更して、それらの外光を同じ側に伝搬させる光路変更素子と、前記光路変更素子によって光路が変更された外光に基づいて形成される各被写体像を共に撮像できる撮像手段とを備える撮像装置が有しており、前記一対の魚眼レンズの一方と前記光路変更素子と前記撮像手段とを含んで構成される第1の撮像部及び前記一対の魚眼レンズの他方と前記光路変更素子と前記撮像手段とを含んで構成される第2の撮像部それぞれによって撮像される被写体像に対して、異なる方向に延びている2組の平行線群の、被写体像における2組の消失点対を、算出する消失点算出工程と、
前記第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの像面の画像中心を、前記消失点算出工程で算出された2組の消失点対に基づいて算出する画像中心算出工程と、
前記第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの焦点距離を、前記消失点算出工程で算出された2組の消失点対の少なくとも一方の消失点対間の距離に基づいて算出する焦点距離算出工程と、
前記撮像手段によって撮像された各被写体像を、前記画像中心算出工程及び前記焦点距離算出工程で算出された画像中心及び焦点距離に基づいて、被写体像の画像情報を半球体の表面に有する半球面画像に変換する画像変換工程と、
前記画像変換工程において得られた各半球面画像に含まれており物体空間における水平線に略平行な直線群の第1消失点及び前記直線群に略直交する直線群の第2消失点に基づいて、前記第1及び第2の撮像部の相対姿勢情報を取得する姿勢情報取得工程と、
前記相対姿勢情報を取得するための各半球面画像に含まれており前記各魚眼レンズの視野の重複領域に対応する領域における画像の相関に基づいて前記焦点距離算出工程で算出された焦点距離及び前記姿勢情報取得工程で取得された相対姿勢情報を校正する校正工程と
を備えることを特徴とする撮像系パラメータ校正方法。
The surfaces on which the external light is incident are disposed on opposite sides of each other, and are disposed between a pair of fisheye lenses having an angle of view of 180 degrees or more and the pair of fisheye lenses, and the external light passing through each fisheye lens An optical path changing element that changes the optical path and propagates the external light to the same side, and an imaging unit that can capture both subject images formed based on the external light whose optical path is changed by the optical path changing element A first imaging unit configured to include one of the pair of fisheye lenses, the optical path changing element, and the imaging means, the other of the pair of fisheye lenses, the optical path changing element, and the Two sets of vanishing point pairs in the subject image of two sets of parallel lines extending in different directions with respect to the subject image captured by each of the second imaging units including the imaging means, Calculate And the vanishing point calculation step,
An image center calculation step of calculating an image center of the image plane of the fisheye lens based on the two pairs of vanishing points calculated in the vanishing point calculation step with respect to the fisheye lens included in the first and second imaging units; ,
Based on the distance between at least one vanishing point pair of the two vanishing point pairs calculated in the vanishing point calculation step, the focal length of the fisheye lens with respect to the fisheye lens included in the first and second imaging units is determined. A focal length calculation step to calculate,
A hemispherical surface having image information of the subject image on the surface of the hemisphere based on the image center and focal length calculated in the image center calculating step and the focal length calculating step. An image conversion process for converting to an image;
Based on a first vanishing point of a straight line group that is included in each hemispherical image obtained in the image conversion step and is substantially parallel to a horizontal line in the object space, and a second vanishing point of a straight line group that is substantially orthogonal to the straight line group. A posture information acquisition step of acquiring relative posture information of the first and second imaging units;
The focal length calculated in the focal length calculation step based on the correlation of the images in the area corresponding to the overlapping area of the visual field of each fisheye lens, which is included in each hemispherical image for acquiring the relative posture information, and the An imaging system parameter calibration method comprising: a calibration step of calibrating the relative posture information acquired in the posture information acquisition step.
前記姿勢情報取得工程は、
基準座標系における前記第1消失点の位置ベクトル及び前記第2消失点の位置ベクトルから前記第1の撮像部の座標系における第1消失点の位置ベクトル及び第2消失点の位置ベクトルに変換する第1の変換行列を算出する第1の行列算出工程と、
前記基準座標系における前記第1消失点の位置ベクトル及び前記第2消失点の位置ベクトルから前記第2の撮像部の座標系における前記第1消失点の位置ベクトル及び前記第2消失点の位置ベクトルに変換する第2の変換行列を算出する第2の行列算出工程と、
前記第1及び第2の変換行列に基づいて前記第1の撮像部の座標系から前記第2の撮像部の座標系に変換する第3の変換行列を算出する第3の行列算出工程と
を備えることを特徴とする請求項7に記載の撮像系パラメータ校正方法。
The posture information acquisition step includes
The position vector of the first vanishing point and the position vector of the second vanishing point in the reference coordinate system are converted into the position vector of the first vanishing point and the position vector of the second vanishing point in the coordinate system of the first imaging unit. A first matrix calculating step of calculating a first transformation matrix;
From the position vector of the first vanishing point and the position vector of the second vanishing point in the reference coordinate system, the position vector of the first vanishing point and the position vector of the second vanishing point in the coordinate system of the second imaging unit A second matrix calculating step of calculating a second conversion matrix to be converted into
A third matrix calculating step of calculating a third conversion matrix for converting from the coordinate system of the first imaging unit to the coordinate system of the second imaging unit based on the first and second conversion matrices; The imaging system parameter calibration method according to claim 7, comprising: an imaging system parameter calibration method according to claim 7.
JP2004055026A 2004-02-27 2004-02-27 Imaging apparatus and imaging system parameter correction method Pending JP2005244861A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004055026A JP2005244861A (en) 2004-02-27 2004-02-27 Imaging apparatus and imaging system parameter correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004055026A JP2005244861A (en) 2004-02-27 2004-02-27 Imaging apparatus and imaging system parameter correction method

Publications (1)

Publication Number Publication Date
JP2005244861A true JP2005244861A (en) 2005-09-08

Family

ID=35026063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004055026A Pending JP2005244861A (en) 2004-02-27 2004-02-27 Imaging apparatus and imaging system parameter correction method

Country Status (1)

Country Link
JP (1) JP2005244861A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013066163A (en) * 2011-08-31 2013-04-11 Ricoh Co Ltd Imaging optical system, entire celestial sphere type imaging device, and imaging system
JP2013198070A (en) * 2012-03-22 2013-09-30 Ricoh Co Ltd Image processing apparatus, image processing method, and imaging apparatus
JP2013214947A (en) * 2012-03-09 2013-10-17 Ricoh Co Ltd Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program
KR101395354B1 (en) * 2012-10-16 2014-05-14 재단법인 씨윗코리아 Panorama camera
CN106570938A (en) * 2016-10-21 2017-04-19 哈尔滨工业大学深圳研究生院 OPENGL based panoramic monitoring method and system
JP2017175616A (en) * 2012-09-11 2017-09-28 株式会社リコー Imaging apparatus, image processing apparatus, and method
WO2017200289A1 (en) * 2016-05-17 2017-11-23 (주)유비크마이크로 Lens module capable of constructing 360-degree image, method for constructing 360-degree image, computer program for implementing method, and storage medium for storing computer program
WO2017200290A1 (en) * 2016-05-17 2017-11-23 (주)유비크마이크로 Camera capable of constructing 360-degree image
JP2018067296A (en) * 2016-10-20 2018-04-26 株式会社リコー Image processing method and image processing apparatus
JP2018205988A (en) * 2017-06-01 2018-12-27 株式会社リコー Image processing device, image processing method and program
JP2019080094A (en) * 2017-10-20 2019-05-23 株式会社カーメイト Imaging means mount type traveling device
JP2021097375A (en) * 2019-12-19 2021-06-24 株式会社Jvcケンウッド Image adjustment device, virtual reality image display system, and image adjustment method
JP7443749B2 (en) 2019-12-19 2024-03-06 株式会社Jvcケンウッド Image adjustment device, virtual reality image display system, and image adjustment method
JP7443751B2 (en) 2019-12-19 2024-03-06 株式会社Jvcケンウッド Virtual reality image display system and control method for virtual reality image display system

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013066163A (en) * 2011-08-31 2013-04-11 Ricoh Co Ltd Imaging optical system, entire celestial sphere type imaging device, and imaging system
JP2013214947A (en) * 2012-03-09 2013-10-17 Ricoh Co Ltd Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program
US11049215B2 (en) 2012-03-09 2021-06-29 Ricoh Company, Ltd. Image capturing apparatus, image capture system, image processing method, information processing apparatus, and computer-readable storage medium
JP2013198070A (en) * 2012-03-22 2013-09-30 Ricoh Co Ltd Image processing apparatus, image processing method, and imaging apparatus
US10666860B2 (en) 2012-09-11 2020-05-26 Ricoh Company, Ltd. Image processor, image processing method and program, and imaging system
JP2019097178A (en) * 2012-09-11 2019-06-20 株式会社リコー Imaging apparatus, image processing apparatus and method
JP2017175616A (en) * 2012-09-11 2017-09-28 株式会社リコー Imaging apparatus, image processing apparatus, and method
KR101395354B1 (en) * 2012-10-16 2014-05-14 재단법인 씨윗코리아 Panorama camera
WO2017200289A1 (en) * 2016-05-17 2017-11-23 (주)유비크마이크로 Lens module capable of constructing 360-degree image, method for constructing 360-degree image, computer program for implementing method, and storage medium for storing computer program
WO2017200290A1 (en) * 2016-05-17 2017-11-23 (주)유비크마이크로 Camera capable of constructing 360-degree image
KR20170129448A (en) * 2016-05-17 2017-11-27 (주)유비크마이크로 Lens Module for Forming 360 Degree Image and Application for Forming 360 Degree Image
KR101882977B1 (en) * 2016-05-17 2018-07-27 (주)유비크마이크로 Lens Module for Forming 360 Degree Image and Application for Forming 360 Degree Image
KR101902999B1 (en) * 2016-05-17 2018-10-01 (주)유비크마이크로 Camera for Forming 360 Degree Image
JP2018067296A (en) * 2016-10-20 2018-04-26 株式会社リコー Image processing method and image processing apparatus
CN106570938A (en) * 2016-10-21 2017-04-19 哈尔滨工业大学深圳研究生院 OPENGL based panoramic monitoring method and system
JP2018205988A (en) * 2017-06-01 2018-12-27 株式会社リコー Image processing device, image processing method and program
JP2019080094A (en) * 2017-10-20 2019-05-23 株式会社カーメイト Imaging means mount type traveling device
JP2021097375A (en) * 2019-12-19 2021-06-24 株式会社Jvcケンウッド Image adjustment device, virtual reality image display system, and image adjustment method
JP7322692B2 (en) 2019-12-19 2023-08-08 株式会社Jvcケンウッド Image adjustment device, virtual reality image display system, and image adjustment method
JP7443749B2 (en) 2019-12-19 2024-03-06 株式会社Jvcケンウッド Image adjustment device, virtual reality image display system, and image adjustment method
JP7443751B2 (en) 2019-12-19 2024-03-06 株式会社Jvcケンウッド Virtual reality image display system and control method for virtual reality image display system

Similar Documents

Publication Publication Date Title
JP6859442B2 (en) Calibration equipment, calibration system, and calibration method
US10586352B2 (en) Camera calibration
JP4388530B2 (en) Single camera omnidirectional binocular image acquisition device
JP5842886B2 (en) Image processing apparatus, image processing method, program, and imaging system
TWI393072B (en) Multi-sensor array module with wide viewing angle; image calibration method, operating method and application for the same
WO2016037486A1 (en) Three-dimensional imaging method and system for human body
JP2006059202A (en) Imaging device and image correction method
CN107660337A (en) For producing the system and method for assembled view from fish eye camera
JP2005244861A (en) Imaging apparatus and imaging system parameter correction method
CN106846409A (en) The scaling method and device of fisheye camera
JP7218435B2 (en) CALIBRATION DEVICE, CALIBRATION CHART AND CALIBRATION METHOD
KR20160116075A (en) Image processing apparatus having a function for automatically correcting image acquired from the camera and method therefor
EP3765815B1 (en) Imaging device, image processing apparatus, and image processing method
JP2009139246A (en) Device, method and program for processing image, position detecting device and moving body equipped with this
CN101814181A (en) Unfolding method for restoration of fisheye image
JP2007192832A (en) Calibrating method of fish eye camera
CN103971375A (en) Panoramic gaze camera space calibration method based on image splicing
WO2013005265A1 (en) Three-dimensional coordinate measuring device and three-dimensional coordinate measuring method
CN111311682A (en) Pose estimation method and device in LED screen correction process and electronic equipment
CN105324791A (en) Coordinate computation device and method, and image processing device and method
CN114549666B (en) AGV-based panoramic image splicing calibration method
JP4631048B2 (en) Imaging apparatus and imaging system parameter calibration method
KR20060056050A (en) Creating method of automated 360 degrees panoramic image
JP2005275789A (en) Three-dimensional structure extraction method
CN112258581A (en) On-site calibration method for multi-fish glasses head panoramic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090310